Refine
Has Fulltext
- yes (493) (remove)
Document Type
- Doctoral Thesis (493) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (13)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
This thesis concerns the physical and mechanical interactions on carbon nanotubes and polymers by multiscale modeling. CNTs have attracted considerable interests in view of their unique mechanical, electronic, thermal, optical and structural properties, which enable them to have many potential applications.
Carbon nanotube exists in several structure forms, from individual single-walled carbon nanotubes (SWCNTs) and multi-walled carbon nanotubes (MWCNTs) to carbon nanotube bundles and networks. The mechanical properties of SWCNTs and MWCNTs have been extensively studied by continuum modeling and molecular dynamics (MD) simulations in the past decade since the properties could be important in the CNT-based devices. CNT bundles and networks feature outstanding mechanical performance and hierarchical structures and network topologies, which have been taken as a potential saving-energy material. In the synthesis of nanocomposites, the formation of the CNT bundles and networks is a challenge to remain in understanding how to measure and predict the properties of such large systems. Therefore, a mesoscale method such as a coarse-grained (CG) method should be developed to study the nanomechanical characterization of CNT bundles and networks formation.
In this thesis, the main contributions can be written as follows: (1) Explicit solutions for the cohesive energy between carbon nanotubes, graphene and substrates are obtained through continuum modeling of the van der Waals interaction between them. (2) The CG potentials of SWCNTs are established by a molecular mechanics model. (3) The binding energy between two parallel and crossing SWCNTs and MWCNTs is obtained by continuum modeling of the van der Waals interaction between them. Crystalline and amorphous polymers are increasingly used in modern industry as tructural materials due to its important mechanical and physical properties. For crystalline polyethylene (PE), despite its importance and the studies of available MD simulations and continuum models, the link between molecular and continuum descriptions of its mechanical properties is still not well established. For amorphous polymers, the chain length and temperature effect on their
elastic and elastic-plastic properties has been reported based on the united-atom (UA) and CG MD imulations in our previous work. However, the effect of the CL and temperature on the failure behavior is not understood well yet. Especially, the failure behavior under shear has been scarcely reported in previous work. Therefore, understanding the molecular origins of macroscopic fracture behavior such as fracture energy is a fundamental scientific challenge.
In this thesis, the main contributions can be written as follows: (1) An analytical molecular mechanics model is developed to obtain the size-dependent elastic properties of crystalline PE.
(2) We show that the two molecular mechanics models, the stick-spiral and the beam models, predict considerably different mechanical properties of materials based on energy equivalence. The difference between the two models is independent of the materials. (3) The tensile and shear failure behavior dependence on chain length and temperature in amorphous polymers are scrutinized using molecular dynamics simulations. Finally, the influence of polymer wrapped two neighbouring SWNTs’ dispersion on their load transfer is investigated by molecular dynamics (MD) simulations, in which the SWNTs' position, the polymer chain length and the temperature on the interaction force is systematically studied.
Material properties play a critical role in durable products manufacturing. Estimation of the precise characteristics in different scales requires complex and expensive experimental measurements. Potentially, computational methods can provide a platform to determine the fundamental properties before the final experiment. Multi-scale computational modeling leads to the modeling of the various time, and length scales include nano, micro, meso, and macro scales. These scales can be modeled separately or in correlation with coarser scales. Depend on the interested scales modeling, the right selection of multi-scale methods leads to reliable results and affordable computational cost. The present dissertation deals with the problems in various length and time scales using computational methods include density functional theory (DFT), molecular mechanics (MM), molecular dynamics (MD), and finite element (FE) methods.
Physical and chemical interactions in lower scales determine the coarser scale properties. Particles interaction modeling and exploring fundamental properties are significant challenges of computational science. Downscale modelings need more computational effort due to a large number of interacted atoms/particles. To deal with this problem and bring up a fine-scale (nano) as a coarse-scale (macro) problem, we extended an atomic-continuum framework. The discrete atomic models solve as a continuum problem using the computationally efficient FE method. MM or force field method based on a set of assumptions approximates a solution on the atomic scale. In this method, atoms and bonds model as a harmonic oscillator with a system of mass and springs. The negative gradient of the potential energy equal to the forces on each atom. In this way, each bond's total potential energy includes bonded, and non-bonded energies are simulated as equivalent structural strain energies. Finally, the chemical nature of the atomic bond is modeled as a piezoelectric beam element that solves by the FE method.
Exploring novel materials with unique properties is a demand for various industrial applications. During the last decade, many two-dimensional (2D) materials have been synthesized and shown outstanding properties. Investigation of the probable defects during the formation/fabrication process and studying their strength under severe service life are the critical tasks to explore performance prospects. We studied various defects include nano crack, notch, and point vacancy (Stone-Wales defect) defects employing MD analysis. Classical MD has been used to simulate a considerable amount of molecules at micro-, and meso- scales. Pristine and defective nanosheet structures considered under the uniaxial tensile loading at various temperatures using open-source LAMMPS codes. The results were visualized with the open-source software of OVITO and VMD.
Quantum based first principle calculations have been conducting at electronic scales and known as the most accurate Ab initio methods. However, they are computationally expensive to apply for large systems. We used density functional theory (DFT) to estimate the mechanical and electrochemical response of the 2D materials. Many-body Schrödinger's equation describes the motion and interactions of the solid-state particles. Solid describes as a system of positive nuclei and negative electrons, all electromagnetically interacting with each other, where the wave function theory describes the quantum state of the set of particles. However, dealing with the 3N coordinates of the electrons, nuclei, and N coordinates of the electrons spin components makes the governing equation unsolvable for just a few interacted atoms. Some assumptions and theories like Born Oppenheimer and Hartree-Fock mean-field and Hohenberg-Kohn theories are needed to treat with this equation. First, Born Oppenheimer approximation reduces it to the only electronic coordinates. Then Kohn and Sham, based on Hartree-Fock and Hohenberg-Kohn theories, assumed an equivalent fictitious non-interacting electrons system as an electron density functional such that their ground state energies are equal to a set of interacting electrons. Exchange-correlation energy functionals are responsible for satisfying the equivalency between both systems. The exact form of the exchange-correlation functional is not known. However, there are widely used methods to derive functionals like local density approximation (LDA), Generalized gradient approximation (GGA), and hybrid functionals (e.g., B3LYP). In our study, DFT performed using VASP codes within the GGA/PBE approximation, and visualization/post-processing of the results realized via open-source software of VESTA.
The extensive DFT calculations are conducted 2D nanomaterials prospects as anode/cathode electrode materials for batteries. Metal-ion batteries' performance strongly depends on the design of novel electrode material. Two-dimensional (2D) materials have developed a remarkable interest in using as an electrode in battery cells due to their excellent properties. Desirable battery energy storage systems (BESS) must satisfy the high energy density, safe operation, and efficient production costs. Batteries have been using in electronic devices and provide a solution to the environmental issues and store the discontinuous energies generated from renewable wind or solar power plants. Therefore, exploring optimal electrode materials can improve storage capacity and charging/discharging rates, leading to the design of advanced batteries.
Our results in multiple scales highlight not only the proposed and employed methods' efficiencies but also promising prospect of recently synthesized nanomaterials and their applications as an anode material. In this way, first, a novel approach developed for the modeling of the 1D nanotube as a continuum piezoelectric beam element. The results converged and matched closely with those from experiments and other more complex models. Then mechanical properties of nanosheets estimated and the failure mechanisms results provide a useful guide for further use in prospect applications. Our results indicated a comprehensive and useful vision concerning the mechanical properties of nanosheets with/without defects. Finally, mechanical and electrochemical properties of the several 2D nanomaterials are explored for the first time—their application performance as an anode material illustrates high potentials in manufacturing super-stretchable and ultrahigh-capacity battery energy storage systems (BESS). Our results exhibited better performance in comparison to the available commercial anode materials.
Rechargeable lithium ion batteries (LIBs) play a very significant role in power supply and storage. In recent decades, LIBs have caught tremendous attention in mobile communication, portable electronics, and electric vehicles. Furthermore, global warming has become a worldwide issue due to the ongoing production of greenhouse gases. It motivates solutions such as renewable sources of energy. Solar and wind energies are the most important ones in renewable energy sources. By technology progress, they will definitely require batteries to store the produced power to make a balance between power generation and consumption. Nowadays,rechargeable batteries such as LIBs are considered as one of the best solutions. They provide high specific energy and high rate performance while their rate of self-discharge is low.
Performance of LIBs can be improved through the modification of battery characteristics. The size of solid particles in electrodes can impact the specific energy and the cyclability of batteries. It can improve the amount of lithium content in the electrode which is a vital parameter in capacity and capability of a battery. There exist diferent sources of heat generation in LIBs such as heat produced during electrochemical reactions, internal resistance in battery. The size of electrode's electroactive particles can directly affect the produced heat in battery. It will be shown that the smaller size of solid particle enhance the thermal characteristics of LIBs.
Thermal issues such as overheating, temperature maldistribution in the battery, and thermal runaway have confined applications of LIBs. Such thermal challenges reduce the Life cycle of LIBs. As well, they may lead to dangerous conditions such as fire or even explosion in batteries. However, recent advances in fabrication of advanced materials such as graphene and carbon nanotubes with extraordinary thermal conductivity and electrical properties propose new opportunities to enhance their performance. Since experimental works are expensive, our objective is to use computational methods to investigate the thermal issues in LIBS. Dissipation of the heat produced in the battery can improve the cyclability and specific capacity of LIBs. In real applications, packs of LIB consist several battery cells that are used as the power source. Therefore, it is worth to investigate thermal characteristic of battery packs under their cycles of charging/discharging operations at different applied current rates. To remove the produced heat in batteries, they can be surrounded by materials with high thermal conductivity. Parafin wax absorbs high energy since it has a high latent heat. Absorption high amounts of energy occurs at constant temperature without phase change. As well, thermal conductivity of parafin can be magnified with nano-materials such as graphene, CNT, and fullerene to form a nano-composite medium. Improving the thermal conductivity of LIBs increase the heat dissipation from batteries which is a vital issue in systems of battery thermal management. The application of two-dimensional (2D) materials has been on the rise since exfoliation the graphene from bulk graphite. 2D materials are single-layered in an order of nanosizes which show superior thermal, mechanical, and optoelectronic properties. They are potential candidates for energy storage and supply, particularly in lithium ion batteries as electrode material. The high thermal conductivity of graphene and graphene-like materials can play a significant role in thermal management of batteries. However, defects always exist in nano-materials since there is no ideal fabrication process. One of the most important defects in materials are nano-crack which can dramatically weaken the mechanical properties of the materials. Newly synthesized crystalline carbon nitride with the stoichiometry of C3N have attracted many attentions due to its extraordinary mechanical and thermal properties. The other nano-material is phagraphene which shows anisotropic mechanical characteristics which is ideal in production of nanocomposite.
It shows ductile fracture behavior when subjected under uniaxial loadings. It is worth to investigate their thermo-mechanical properties in its pristine and defective states. We hope that the findings of our work not only be useful for both experimental and theoretical researches but also help to design advanced electrodes for LIBs.
Multi-Frame Rate Rendering
(2008)
Multi-frame rate rendering is a parallel rendering technique that renders interactive parts of a scene on one graphics card while the rest of the scene is rendered asynchronously on a second graphics card. The resulting color and depth images of both render processes are composited, by optical superposition or digital composition, and displayed. The results of a user study confirm that multi-frame rate rendering can significantly improve the interaction performance. Multi-frame rate rendering is naturally implemented on a graphics cluster. With the recent availability of multiple graphics cards in standalone systems the method can also be implemented on a single computer system where memory bandwidth is much higher compared to off-the-shelf networking technology. This decreases overall latency and further improves interactivity. Multi-frame rate rendering was also investigated on a single graphics processor by interleaving the rendering streams for the interactive elements and the rest of the scene. This approach enables the use of multi-frame rate rendering on low-end graphics systems such as laptops, mobile phones, and PDAs. Advanced multi-frame rate rendering techniques reduce the limitations of the basic approach. The interactive manipulation of light sources and their parameters affects the entire scene. A multi-GPU deferred shading method is presented that splits the rendering task into a rasterization and lighting pass and assigns the passes to the appropriate image generators such that light manipulations at high frame rates become possible. A parallel volume rendering technique allows the manipulation of objects inside a translucent volume at high frame rates. This approach is useful for example in medical applications, where small probes need to be positioned inside a computed-tomography image. Due to the asynchronous nature of multi-frame rate rendering artifacts may occur during migration of objects from the slow to the fast graphics card, and vice versa. Proper state management allows to almost completely avoid these artifacts. Multi-frame rate rendering significantly improves the interactive manipulation of objects and lighting effects. This leads to a considerable increase of the size for 3D scenes that can be manipulated compared to conventional methods.
Es werden sowohl analytische als auch numerische Verfahren zur Berechnung der Wärmeverluste von Verglasungen vorgestellt, wobei alle am Energietransport beteiligten Prozesse, die Wärmeleitung, die thermisch getriebenen Konvektionsströmungen und die infrarote Strahlungswechselwirkung, korrekt und vollständig berücksichtigt werden. Mit Hilfe numerischer Strömungssimulation werden Verglasungen systematisch hinsichtlich der Füllgasart, der Infrarotverspiegelung, der Einbaulage und des Scheibenabstandes sowie der Anzahl der Gaszwischenräume (Zwei-, Drei- und Vierscheiben-Verglasung) untersucht und verglichen. Die Abhängigkeit des k-Wertes von den Temperaturen der angrenzenden Klimate (Atmosphäre und Innenraum) wird dargestellt.
Modellbildung und computergestütztes Modellieren in frühen Phasen des architektonischen Entwurfs
(1997)
Die Arbeit befaßt sich mit der Konzeption und exemplarischen Realisierung von CAD-Tools zur Unterstützung des konzeptionellen Entwurfs von Gebäuden. Die Spezifik des Bauentwurfs macht eine Analyse des Arbeitsfelds "früher architektonischer Entwurf" aus Sicht der Informationsverarbeitung nichtig. Auf der Grundlage einer Untersuchung des Entwurfsprozesses aus pragmatischer und kognitiver Sicht wird ein generisches Prozeßmodell "Entwurf" abgeleitet und mit Beispielen belegt. Ausgehend von der Auffassung, daß Entwerfen der Prozesse das Vorausdenken von Bauwerken in Modellen ist, wird die "objektorientierte Modellierungstechnologie" einer eingehenden Bewertung unterzogen. Ihre methodische Eignung zur modellhaften Abbildung von Bauwerken wird grundsätzlich nachgewiesen. Mit Blick auf die spezifischen Gegebenheiten der frühen Entwurfsphasen, wie Unschärfe und nicht formalisiert darstellbarer Informationen, werden einige Erweiterungen vorgeschlagen und experimentiert. Ziel der Arbeit ist es, ein multipel und über lange Zeiträume auswertbares Bauwerksmodell zu schaffen, um Planungsprozesse über den gesamten Bauwerkslebenszyklus durchgängig zu unterstützen. Grundlage des Entwerfens mittels der objektorientierten Methodik sind generalisierte Domänenmodelle. Es wird gezeigt, daß für eine Interpretation konkreter Bauwerksmodelle die generalisierten Domänenmodelle entweder zu normieren sind oder aber daß sie explizit verfügbar sein müssen. Die Objektorientierung bietet die Möglichkeit, sowohl konkrete als auch generalisierte Modelle in einem einheitlichen Metamodell zu beschreiben...
Modell bedarfsorientierter Leistungserbringung im FM auf Grundlage von Sensortechnologien und BIM
(2023)
Während der Digitalisierung im Bauwesen insbesondere im Bereich der Planungs- und Errichtungsphase von Bauwerken immer größere Aufmerksamkeit zuteilwird, ist das digitale Potenzial im Facility Management weit weniger ausgeschöpft, als dies möglich wäre. Vor dem Hintergrund, dass die Bewirtschaftung von Gebäuden jedoch einen wesentlichen Kostenanteil im Lebenszyklus darstellt, ist eine Fokussierung auf digitale Prozesse im Gebäudebetrieb erforderlich. Im Facility Management werden Dienstleistungen häufig verrichtungsorientiert, d. h. nach statischen Intervallen, oder bedarfsorientiert erbracht. Beide Arten der Leistungserbringung weisen Defizite auf, beispielweise weil Tätigkeiten auf Basis definierter Intervalle erbracht werden, ohne dass eine Notwendigkeit besteht oder weil bestehende Bedarfe mangels Möglichkeiten der Bedarfsermittlung nicht identifiziert werden. Speziell die Definition und Ermittlung eines Bedarfs zur Leistungserbringung ist häufig subjektiv geprägt. Auch sind Dienstleister oft nicht in frühen Phasen der Gebäudeplanung involviert und erhalten für ihre Dienstleistungen notwendige Daten und Informationen erst kurz vor Inbetriebnahme des zu betreibenden Gebäudes.
Aktuelle Ansätze des Building Information Modeling (BIM) und die zunehmende Verfügbarkeit von Sensortechnologien in Gebäuden bieten Chancen, die o. g. Defizite zu beheben.
In der vorliegenden Arbeit werden deshalb Datenmodelle und Methoden entwickelt, die mithilfe von BIM-basierten Datenbankstrukturen sowie Auswertungs- und Entscheidungsmethodiken Dienstleistungen der Gebäudebewirtschaftung objektiviert und automatisiert auslösen können. Der Fokus der Arbeit liegt dabei auf dem Facility Service der Reinigungs- und Pflegedienste des infrastrukturellen Facility Managements.
Eine umfangreiche Recherche etablierter Normen und Standards sowie öffentlich zugänglicher Leistungsausschreibungen bilden die Grundlage der Definition erforderlicher Informationen zur Leistungserbringung. Die identifizierten statischen Gebäude- und Prozessinformationen werden in einem relationalen Datenbankmodell strukturiert, das nach einer Darstellung von Messgrößen und der Beschreibung des Vorgehens zur Auswahl geeigneter Sensoren für die Erfassung von Bedarfen, um Sensorinformationen erweitert wird. Um Messwerte verschiedener und bereits in Gebäuden existenten Sensoren für die Leistungsauslösung verwenden zu können, erfolgt die Implementierung einer Normierungsmethodik in das Datenbankmodell. Auf diese Weise kann der Bedarf zur Leistungserbringung ausgehend von Grenzwerten ermitteln werden. Auch sind Verknüpfungsmethoden zur Kombination verschiedener Anwendungen in dem Datenbankmodell integriert. Zusätzlich zur direkten Auslösung erforderlicher Aktivitäten ermöglicht das entwickelte Modell eine opportune Auslösung von Leistungen, d. h. eine Leistungserbringung vor dem eigentlich bestehenden Bedarf. Auf diese Weise können tätigkeitsähnliche oder räumlich nah beieinander liegende Tätigkeiten sinnvoll vorzeitig erbracht werden, um für den Dienstleister eine Wegstreckeneinsparung zu ermöglichen. Die Arbeit beschreibt zudem die für die Auswertung, Entscheidungsfindung und Auftragsüberwachung benötigen Algorithmen.
Die Validierung des entwickelten Modells bedarfsorientierter Leistungserbringung erfolgt in einer relationalen Datenbank und zeigt simulativ für unterschiedliche Szenarien des Gebäudebetriebs, dass Bedarfsermittlungen auf Grundlage von Sensortechnologien erfolgen und Leistungen opportun ausgelöst, beauftragt und dokumentiert werden können.
Text classification deals with discovering knowledge in texts and is used for extracting, filtering, or retrieving information in streams and collections. The discovery of knowledge is operationalized by modeling text classification tasks, which is mainly a human-driven engineering process. The outcome of this process, a text classification model, is used to inductively learn a text classification solution from a priori classified examples. The building blocks of modeling text classification tasks cover four aspects: (1) the way examples are represented, (2) the way examples are selected, (3) the way classifiers learn from examples, and (4) the way models are selected.
This thesis proposes methods that improve the prediction quality of text classification solutions for unseen examples, especially for non-standard tasks where standard models do not fit. The original contributions are related to the aforementioned building blocks: (1) Several topic-orthogonal text representations are studied in the context of non-standard tasks and a new representation, namely co-stems, is introduced. (2) A new active learning strategy that goes beyond standard sampling is examined. (3) A new one-class ensemble for improving the effectiveness of one-class classification is proposed. (4) A new model selection framework to cope with subclass distribution shifts that occur in dynamic environments is introduced.
Die hier vorliegende Arbeit befasst sich mit dem Modifizieren von Computerspielen (Modding). Die Annäherung an das Modding geschieht aus zwei unterschiedlichen Blickrichtungen: Zum einen wird mit einem analytischen Blick auf das Themenfeld geschaut, der das bereits Erforschte mit den eigenen Suchbewegungen kombiniert. Zum anderen wird die Perspektive der Handlung eingenommen, die sich in der Widerständigkeit des Materials, der Werkzeuge und der Spieltechnologie äußert. Im Mittelpunkt der Auseinandersetzung stehen das Modding als Praxis, die Mods als Derivate und die Erforschung des Computerspiels mit den Praktiken und Derivaten des Modifizierens. Das Modding wird so zu einer epistemischen Praxis des Computerspiels.
Die hier formulierten Überlegungen zum Modding, als eine forschende Praxis des Computerspiels, präsentieren eine Vorgehensweise, die ästhetische, widerständige und stabilisierende Aspekte in sich vereint. Sie dient der Erforschung des Computerspiels entlang seiner Diskussionen, Materialien, Technologien und Praktiken und fokussiert hierbei auf das Abseitige, dass als integraler Bestandteil des Computerspiels verstanden wird. Mit diesem Blick auf die Grenzen des Computerspielens werden Dinge sichtbar, die zwar Teil der synthetischen Computerspielwelten sind, durch dessen Inszenierungen und Atmosphären jedoch verschleiert werden. Der hier entwickelte Ansatz ermöglicht einen Perspektivenwechsel innerhalb dieser Welten und die Erforschung des Computerspiels unter besonderer Berücksichtigung seiner eingeschriebenen Normen und Machtverhältnissen. Das Modding dient hierbei als eine kritische Praxis zur Entschlüsselung dieser medial vermittelten Konstellationen.
Mitigating Risks of Corruption in Construction: A theoretical rationale for BIM adoption in Ethiopia
(2021)
This PhD thesis sets out to investigate the potentials of Building Information Modeling (BIM) to mitigate risks of corruption in the Ethiopian public construction sector. The wide-ranging capabilities and promises of BIM have led to the strong perception among researchers and practitioners that it is an indispensable technology. Consequently, it has become the frequent subject of science and research. Meanwhile, many countries, especially the developed ones, have committed themselves to applying the technology extensively. Increasing productivity is the most common and frequently cited reason for that.
However, both technology developers and adopters are oblivious to the potentials of BIM in addressing critical challenges in the construction sector, such as corruption. This particularly would be significant in developing countries like Ethiopia, where its problems and effects are acute. Studies reveal that bribery and corruption have long pervaded the construction industry worldwide. The complex and fragmented nature of the sector provides an environment for corruption. The Ethiopian construction sector is not immune from this epidemic reality. In fact, it is regarded as one of the most vulnerable sectors owing to varying socio-economic and political factors. Since 2015, Ethiopia has started adopting BIM, yet without clear goals and strategies. As a result, the potential of BIM for combating concrete problems of the sector remains untapped. To this end, this dissertation does pioneering work by showing how collaboration and coordination features of the technology contribute to minimizing the opportunities for corruption. Tracing loopholes, otherwise, would remain complex and ineffective in the traditional documentation processes.
Proceeding from this anticipation, this thesis brings up two primary questions: what are areas and risks of corruption in case of the Ethiopian public construction projects; and how could BIM be leveraged to mitigate these risks? To tackle these and other secondary questions, the research employs a mixed-method approach. The selected main research strategies are Survey, Grounded Theory (GT) and Archival Study. First, the author disseminates an online questionnaire among Ethiopian construction engineering professionals to pinpoint areas of vulnerability to corruption. 155 responses are compiled and scrutinized quantitatively. Then, a semi-structured in-depth interview is conducted with 20 senior professionals, primarily to comprehend opportunities for and risks of corruption in those identified highly vulnerable project stages and decision points. At the same time, open interviews (consultations) are held with 14 informants to be aware of state of the construction documentation, BIM and loopholes for corruption in the country. Consequently, these qualitative data are analyzed utilizing the principles of GT, heat/risk mapping and Social Network Analysis (SNA). The risk mapping assists the researcher in the course of prioritizing corruption risks; whilst through SNA, methodically, it is feasible to identify key actors/stakeholders in the corruption venture. Based on the generated research data, the author constructs a [substantive] grounded theory around the elements of corruption in the Ethiopian public construction sector. This theory, later, guides the subsequent strategic proposition of BIM. Finally, 85 public construction related cases are also analyzed systematically to substantiate and confirm previous findings.
By ways of these multiple research endeavors that is based, first and foremost, on the triangulation of qualitative and quantitative data analysis, the author conveys a number of key findings. First, estimations, tender document preparation and evaluation, construction material as well as quality control and additional work orders are found to be the most vulnerable stages in the design, tendering and construction phases respectively. Second, middle management personnel of contractors and clients, aided by brokers, play most critical roles in corrupt transactions within the prevalent corruption network. Third, grand corruption persists in the sector, attributed to the fact that top management and higher officials entertain their overriding power, supported by the lack of project audits and accountability. Contrarily, individuals at operation level utilize intentional and unintentional 'errors’ as an opportunity for corruption.
In light of these findings, two conceptual BIM-based risk mitigation strategies are prescribed: active and passive automation of project audits; and the monitoring of project information throughout projects’ value chain. These propositions are made in reliance on BIM’s present dimensional capabilities and the promises of Integrated Project Delivery (IPD). Moreover, BIM’s synchronous potentials with other technologies such as Information and Communication Technology (ICT), and Radio Frequency technologies are topics which received a treatment. All these arguments form the basis for the main thesis of this dissertation, that BIM is able to mitigate corruption risks in the Ethiopian public construction sector. The discourse on the skepticisms about BIM that would stem from the complex nature of corruption and strategic as well as technological limitations of BIM is also illuminated and complemented by this work. Thus, the thesis uncovers possible research gaps and lays the foundation for further studies.
Die europäische Gegenwartsarchitektur, die sich exemplarisch etwa in Arbeiten von Herzog & deMeuron, Adolf Krischanitz oder Rem Kohlhaas manifestiert, verbindet eine Beziehung zum Gewöhnlichen, Alltäglichen, Banalen. Diese Beziehung ist unklar und problematisch, da üblicherweise Architektur auf der einen Seite und Banalität auf der anderen Seite einander ausschliessende Begriffspaare bezeichnen. Diese Hinwendung der Architektur zum Gewöhnlichen entwickelt sich historisch als ein Modell, welches Gewöhnlichkeit als ethisches Prinzip etabliert, das unabdingbar mit der Entwicklung der Kultur verbunden ist. Besonders im zwanzigsten Jahrhundert werden solcherart einflußreiche Alternativen zu einer Architektur des Besten, Größten und Schönsten vorgestellt. Der Regelfall für die Beurteilung der Beziehungen zwischen Architektur und Banalität ist allerdings die Kritik der Banalität. Hier gibt es zwei hauptsächliche Kritikmuster, nämlich die Kritik von Banalität als Bedeutungslosigkeit und die Kritik der Banalität als Wertlosigkeit. Problematisch ist eine Kritik der Banalität dann, wenn sie objektorientiert argumentiert, anstatt Interpretationsmodelle zu untersuchen, da in Gegenständen keine Bedeutungen liegen, sondern nur Unterschiede, die es dem Betrachter möglich machen, ihnen Bedeutung zuzuschreiben. Genauso wie eine objektorientierte Kritik an Banalität nicht zielführend sein kann, so sind auch Versuche, eine Ästhetik des Banalen zu begründen, fragwürdig. Ein Kunstwerk oder auch Architektur definiert sich nicht über seine Neutralität, sondern über seine Differenz zum Alltäglichen, Gewöhnlichen, Banalen. Eine Wechselwirkung zwischen Architektur und Banalität ist also nur über die Effekte des Gewöhnlichen untersuchbar, da das Gewöhnliche selbst uninterpretiert und unsichtbar bleiben muß. Entscheidend ist letztlich die Frage, auf welche Art Architektur Banalität für ihre Transformationen benützt. Ein Erklärungsmodell ist der Kantsche Begriff des Parergon, der zeigt, wie sich Architektur durch Ränder, das Sekundäre, das Gewöhnliche konstituiert. Das Parergon ist dabei subversiv und sinister, weil es die herkömmliche Einheit der Architektur zerstört. Letztlich also ist die Annäherung der zeitgenössischen Architektur an die Banalität eine subversive Differenzierungsstrategie, mit der durch scheinbare Nähe größtmögliche Distanzierung erreicht wird.
Zwischen den Jahren 1920 und 1930 kam es an der kalifornischen Küste zu Bauschäden an Brücken und Fahrbahnen, die sich vor allem in einer deutlichen Rissbildung äußerten. Seither werden immer wieder Bauschäden beschrieben, deren Ursache in der Reaktion von Zuschlägen, die „reaktive“ Kieselsäure enthalten, mit der Porenlösung des Betons zu sehen ist. Diese Reaktion wird als Alkali-Kieselsäure Reaktion (AKR) bezeichnet. Seit der ersten Veröffentlichung von Stanton über die „alkali-aggregate reaction“ an opalhaltigen Zuschlägen sind hunderte von Forschungsarbeiten zu diesem Thema durchgeführt und deren Ergebnisse veröffentlicht worden. Trotz eingehender Forschung seit mehr als 8o Jahren ist weder der Mechanismus der AKR vollständig geklärt noch eine eindeutige Voraussage über die Gefährdung von Bauwerken oder Bauteilen mit potentiell AKR-empfindlichen Zuschlägen möglich. Das liegt vor allen Dingen daran, das es sich bei der AKR um eine Reaktion handelt, die aus einer komplexen Abfolge chemischer und physikalischer Prozesse besteht, die in ihrer Gesamtheit zu einer Schädigung von Beton bzw. Betonbauteilen und Bauwerken führen können. Eine geschlossene Beschreibung und Behandlung dieser Reaktion ist nicht möglich, solange keine befriedigende Kenntnis über den Ablauf der einzelnen Schritte vorliegt. Dazu bedarf es grundsätzlicher Untersuchungen der einzelnen chemischen und physikalischen Reaktionsschritte sowie einer möglichst quantitativen Bewertung der verschiedenen Einflussfaktoren. Grundsätzlich gibt es weltweit eine ganze Reihe von Richtlinien und Normen , die dazu verhelfen sollen, Schädigungen an Bauwerken durch AKR zu verhindern. In Deutschland ist das momentan gültige Regelwerk die sogenannte Alkali-Richtlinie des deutschen Ausschusses für Stahlbeton (DAfStb). Sie dient zur Beurteilung von Zuschlag nach DIN 4226 [6, 7, 8] mit alkaliempfindlichen Bestandteilen. Dabei bezieht sich der Teil 2 der Richtlinie auf Zuschläge mit Opalsandstein, Kieselkreide und Flint aus bestimmten Gewinnungsgebieten. Hier wird eine reine Zuschlagprüfung gefordert. Teil 3 der Richtlinie bezieht sich auf präkambrische Grauwacken und andere alkaliempfindliche Gesteine. Gefordert werden hier Prüfungen der Zuschläge selbst sowie Prüfung an Betonbalken und 30er Würfeln in der Nebelkammer. Für die meisten in der Richtlinie genannten Zuschläge bilden die Prüfungen und Vorschriften eine ausreichende Sicherheit, um eine AKR zu vermeiden. Dennoch treten immer wieder Schäden mit Zuschlägen auf, die nach der Alkali-Richtlinie als unempfindlich eingestuft werden müssten. Dabei handelt es sich in der Regel um Schadensfälle, die erst nach mehreren Jahren mit spät reagierenden AKR-empfindlichen Zuschlägen auftreten. Zu diesen Zuschlägen, die gegebenenfalls speziell im Nebelkammertest innerhalb von neun Monaten keine signifikante Dehnung (<0,6mm/m) aufweisen, gehören Stressquarze, Kieselkalk, Granit, Porphyr, Kieselschiefer und Grauwacke. Die vorliegende Arbeit dient speziell der Beurteilung und Einordnung von unterschiedlichen kristallinen Quarzmodifikationen sowie der Ermittlung geeigneter Untersuchungsmethoden für die Beurteilung der AKR-Empfindlichkeit von Quarz.
Methods based on B-splines for model representation, numerical analysis and image registration
(2015)
The thesis consists of inter-connected parts for modeling and analysis using newly developed isogeometric methods. The main parts are reproducing kernel triangular B-splines, extended isogeometric analysis for solving weakly discontinuous problems, collocation methods using superconvergent points, and B-spline basis in image registration applications.
Each topic is oriented towards application of isogeometric analysis basis functions to ease the process of integrating the modeling and analysis phases of simulation.
First, we develop reproducing a kernel triangular B-spline-based FEM for solving PDEs. We review the triangular B-splines and their properties. By definition, the triangular basis function is very flexible in modeling complicated domains. However, instability results when it is applied for analysis. We modify the triangular B-spline by a reproducing kernel technique, calculating a correction term for the triangular kernel function from the chosen surrounding basis. The improved triangular basis is capable to obtain the results with higher accuracy and almost optimal convergence rates.
Second, we propose an extended isogeometric analysis for dealing with weakly discontinuous problems such as material interfaces. The original IGA is combined with XFEM-like enrichments which are continuous functions themselves but with discontinuous derivatives. Consequently, the resulting solution space can approximate solutions with weak discontinuities. The method is also applied to curved material interfaces, where the inverse mapping and the curved triangular elements are considered.
Third, we develop an IGA collocation method using superconvergent points. The collocation methods are efficient because no numerical integration is needed. In particular when higher polynomial basis applied, the method has a lower computational cost than Galerkin methods. However, the positions of the collocation points are crucial for the accuracy of the method, as they affect the convergent rate significantly. The proposed IGA collocation method uses superconvergent points instead of the traditional Greville abscissae points. The numerical results show the proposed method can have better accuracy and optimal convergence rates, while the traditional IGA collocation has optimal convergence only for even polynomial degrees.
Lastly, we propose a novel dynamic multilevel technique for handling image registration. It is application of the B-spline functions in image processing. The procedure considered aims to align a target image from a reference image by a spatial transformation. The method starts with an energy function which is the same as a FEM-based image registration. However, we simplify the solving procedure, working on the energy function directly. We dynamically solve for control points which are coefficients of B-spline basis functions. The new approach is more simple and fast. Moreover, it is also enhanced by a multilevel technique in order to prevent instabilities. The numerical testing consists of two artificial images, four real bio-medical MRI brain and CT heart images, and they show our registration method is accurate, fast and efficient, especially for large deformation problems.
Bauablaufplänen kommt bei der Realisierung von Bauprojekten eine zentrale Rolle zu. Sie dienen der Koordination von Schnittstellen und bilden für die am Projekt Beteiligten die Grundlage für ihre individuelle Planung. Eine verlässliche Terminplanung ist daher von großer Bedeutung, tatsächlich sind aber gerade Bauablaufpläne für ihre Unzuverlässigkeit bekannt.
Aufgrund der langen Vorlaufzeiten bei der Planung von Bauprojekten sind zum Zeitpunkt der Planung viele Informationen nur als Schätzwerte bekannt. Auf der Grundlage dieser geschätzten und damit mit Unsicherheiten behafteten Daten werden im Bauwesen deterministische Terminpläne erstellt. Kommt es während der Realisierung zu Diskrepanzen zwischen Schätzungen und Realität, erfordert dies die Anpassung der Pläne. Aufgrund zahlreicher Abhängigkeiten zwischen den geplanten Aktivitäten können einzelne Planänderungen vielfältige weitere Änderungen und Anpassungen nach sich ziehen und damit einen reibungslosen Projektablauf gefährden.
In dieser Arbeit wird ein Vorgehen entwickelt, welches Bauablaufpläne erzeugt, die im Rahmen der durch das Projekt definierten Abhängigkeiten und Randbedingungen in der Lage sind, Änderungen möglichst gut zu absorbieren. Solche Pläne, die bei auftretenden Änderungen vergleichsweise geringe Anpassungen des Terminplans erfordern, werden hier als robust bezeichnet.
Ausgehend von Verfahren der Projektplanung und Methoden zur Berücksichtigung von Unsicherheiten werden deterministische Terminpläne bezüglich ihres Verhaltens bei eintretenden Änderungen betrachtet. Hierfür werden zunächst mögliche Unsicherheiten als Ursachen für Änderungen benannt und mathematisch abgebildet. Damit kann das Verhalten von Abläufen für mögliche Änderungen betrachtet werden, indem die durch Änderungen erzwungenen angepassten Terminpläne simuliert werden. Für diese Monte-Carlo-Simulationen der angepassten Terminpläne wird sichergestellt, dass die angepassten Terminpläne logische Weiterentwicklungen des deterministischen Terminplans darstellen. Auf der Grundlage dieser Untersuchungen wird ein stochastisches Maß zur Quantifizierung der Robustheit erarbeitet, welches die Fähigkeit eines Planes, Änderungen zu absorbieren, beschreibt. Damit ist es möglich, Terminpläne bezüglich ihrer Robustheit zu vergleichen.
Das entwickelte Verfahren zur Quantifizierung der Robustheit wird in einem Optimierungsverfahren auf Basis Genetischer Algorithmen angewendet, um gezielt robuste Terminpläne zu erzeugen. An Beispielen werden die Methoden demonstriert und ihre Wirksamkeit nachgewiesen.
Die vorliegende Arbeit richtet sich an Ingenieur*innen und Wissenschaftler*innen der technischen Gebäudeausrüstung. Sie greift einen sich abzeichnenden Änderungsbedarf in der Umwelt- und Nachhaltigkeitsbewertung von Gebäuden und wärmetechnischen Anlagen auf. Der aktuell genutzte nicht erneuerbare Primärenergiebedarf wird insbesondere hinsichtlich künftiger politischer Klima- und Umweltschutzziele als alleinige Bewertungsgröße nicht ausreichend sein. Die mit dieser Arbeit vorgestellte Ökoeffizienzbewertungsmethode kann als geeignetes Instrument zur Lösung der Probleme beitragen. Sie ermöglicht systematische, ganzheitliche Bewertungen und reproduzierbare Vergleiche wärmetechnischer Anlagen bezüglich ihrer ökologischen und ökonomischen Nachhaltigkeit. Die wesentlichsten Neuentwicklungen sind die spezifische Umweltleistung, in Erweiterung zum genutzten Primärenergiefaktor, und der Ökoeffizienzindikator UWI.
Metaphosphat – modifizierte Silikatbinder als Basis säurebeständiger Beschichtungsmaterialien
(2008)
Mörtel basierend auf erhärtetem Wasserglas als Binder weisen eine ausgesprochen gute Beständigkeit im Kontakt mit stark sauren Medien auf; unzureichend hingegen ist die che-mische Beständigkeit im Kontakt mit alkalischen bis schwachsauren Medien. Ziel der Un-tersuchungen ist eine Verbesserung der Wasserbeständigkeit von Natriumsilikatbindern durch gezielte chemische Modifikation mit verschiedenen Metaphosphaten. Durch eine systematische Charakterisierung der Zusammensetzung und des strukturellen Aufbaus der Binder werden dabei die Ursachen der bindertypischen Eigenschaften aufgeklärt. Eine Modifikation der Natriumsilikatlösung mit Natriumtrimetaphosphat hat eine Erhöhung des Kondensationsgrades und eine verbesserte mechanische Beständigkeit des verfestig-ten Natriumsilikatbinders zur Folge. Durch die reaktive Bindung der Basizität der Natriumsi-likatlösung beim Abbau der Metaphosphatstruktur wird die Wasserbeständigkeit mit Natri-umtrimetaphosphat modifizierter Natriumsilikatmörtel erhöht. Die gute Beständigkeit im Kontakt mit hochkonzentrierter Schwefelsäure bleibt nahezu unverändert erhalten. Eine Modifikation der Natriumsilikatlösung mit Aluminiumtetrametaphosphat führt durch Reaktion beider Komponenten miteinander zur Bildung eines alumosilikatischen Netzwer-kes. Das alumosilikatische Netzwerk des mit Aluminiumtetrametaphosphat modifizierten Natriumsilikatbinders ist auch in einer stark alkalischen Natriumhydroxidlösung beständig. Die gute Beständigkeit des Binders im Kontakt mit hochkonzentrierter Schwefelsäure bleibt trotz des Aluminates im Bindernetzwerk erhalten.
Metamorphosen des Organizismus : zur Formensprache der Lebendigen Architektur von Imre Makovecz
(1999)
Die vorliegende Arbeit begann als Studie des ungarischen ”organischen” Architekten Imre Makovecz und entwickelte sich zu einer Untersuchung der Metamorphosen des Organizismus in der Kunst- und Architekturtheorie des 20. Jahrhunderts. Die Essenz der organischen Architektur wird oft im Konzept der organischen Form gesehen. Architekturhistoriker konstruieren häufig Genealogien, die Frank Lloyd Wright mit Emerson verbinden oder Makovecz mit Rudolf Steiner und sehen den Organizismus in der Architektur als Indikator für den Bruch mit der klassischen Tradition an. Faßt man den Organizismus als ein Konzept auf, das die Natur zum Vorbild nimmt, so gibt es keine Idee in der westlichen Kunst- und Architekturtheorie, die fundamentaler oder weiter verbreitet wäre. Die Studie thematisiert, inwiefern sich die verschiedenen Varianten des ars imitatur naturam auf das Werk von Imre Makovecz und auf die Tradition der organischen Architektur im 20. Jahrhundert beziehen. Aus architekturtheoretischer Sicht erfolgt eine philosophische Skizzierung des Diskurses der Organizismustheorie, wobei die Person Imre Makovez als Ausgangspunkt der Untersuchung gewählt wurde.
Metakaolin made from kaolin is used around the world but rarely in Vietnam where abundant deposits of kaolin is found. The first studies of producing metakaolin were conducted with high quality Vietnamese kaolins. The results showed the potential to produce metakaolin, and its effect has on strength development of mortars and concretes. However, utilisation of a low quality kaolin for producing Vietnamese metakaolin has not been studied so far.
The objectives of this study were to produce a good quality metakaolin made from low quality Vietnamese kaolin and to facilitate the utilisation of Vietnamese metakaolin in composite cements.
In order to reach such goals, the optimal thermal conversion of Vietnamese kaolin into metakaolin was carried out by many investigations, and as such the optimal conversion is found using the analysis results of DSC/TGA, XRD and CSI. During the calcination in a range of 500 – 800 oC lasting for 1 – 5 hours, the characterisation of calcinated kaolin was also monitored for mass loss, BET surface, PSD, density as well as the presence of the residual water. It is found to have a well correlation between residual water and BET surface.
The pozzolanic activity of metakaolin was tested by various methods regarding to the saturated lime method, mCh and TGA-CaO method. The results of the study showed which method is the most suitable one to characterise the real activity of metakaolin and can reach the greatest agreement with concrete performance. Furthermore, the pozzolanic activity results tested using methods were also analysed and compared to each other with respect to the BET surface.
The properties of Vietnam metakaolin was established using investigations on water demand, setting time, spread-flowability, and strength. It is concluded that depending on the intended use of composite cement and weather conditions of cure, each Vietnamese metakaolin can be used appropriately to produce (1) a composite cement with a low water demand (2) a high strength of composite cement (3) a composite cement that aims to reduce CO2 emissions and to improve economics of cement products (4) a high performance mortar.
The durability of metakaolin mortar was tested to find the needed metakaolin content against ASR, sulfat and sulfuric acid attacks successfully.
1921 nennt der Mathematiker Hermann Weyl (1885-1955) das Kontinuum ein "Medium des freien Werdens". Diese Formulierung nimmt die Dissertation zum Anlass, um die medientheoretische Bedeutung der philosophischen Schriften von Hermann Weyl zu untersuchen. Das konstruktive Kontinuum, in dem nach Weyls Auffassung die Physik präparierte Ereignisse ansiedelt, ist scharf von der anschaulichen Wirklichkeit zu unterscheiden. Weyl erklärt in Diskussionen der Positionen Hilberts und Brouwers in der mathematischen Grundlagenkrise das Kontinuum als Produkt des menschlichen Bewusstseins. Weyls Theorie des Kontinuums weicht von der Darstellung in der Philosophie der symbolischen Formen Ernst Cassirers ab. Cassirer setzt in seinem Hauptwerk voraus, daß der mathematische Symbolismus und das konstruktive Kontinuum eine Brücke zwischen Bewusstsein und Wirklichkeit bilden. Das Wechselverhältnis zwischen dem Mathematiker Weyl und dem Philosophen Cassirer zeigt beispielhafte Formen der Vermittlung zwischen Philosophie und moderner Naturwissenschaft. Weyls Schriften werden als paradigmatisch für die Medientheorie gedeutet.
Compactly, this thesis encompasses two major parts to examine mechanical responses of polymer compounds and two dimensional materials:
1- Molecular dynamics approach is investigated to study transverse impact behavior of polymers, polymer compounds and two dimensional materials.
2- Large deflection of circular and rectangular membranes is examined by employing continuum mechanics approach.
Two dimensional materials (2D), including, Graphene and molybdenum disulfide (MoS2), exhibited new and promising physical and chemical properties, opening new opportunities to be utilized alone or to enhance the performance of conventional materials. These 2D materials have attracted tremendous attention owing to their outstanding physical properties, especially concerning transverse impact loading.
Polymers, with the backbone of carbon (organic polymers) or do not include carbon atoms in the backbone (inorganic polymers) like polydimethylsiloxane (PDMS), have extraordinary characteristics particularly their flexibility leads to various easy ways of forming and casting. These simple shape processing label polymers as an excellent material often used as a matrix in composites (polymer compounds).
In this PhD work, Classical Molecular Dynamics (MD) is implemented to calculate transverse impact loading of 2D materials as well as polymer compounds reinforced with graphene sheets. In particular, MD was adopted to investigate perforation of the target and impact resistance force . By employing MD approach, the minimum velocity of the projectile that could create perforation and passes through the target is obtained. The largest investigation was focused on how graphene could enhance the impact properties of the compound. Also the purpose of this work was to discover the effect of the atomic arrangement of 2D materials on the impact problem. To this aim, the impact properties of two different 2D materials, graphene and MoS2, are studied. The simulation of chemical functionalization was carried out systematically, either with covalently bonded molecules or with non-bonded ones, focusing the following efforts on the covalently bounded species, revealed as the most efficient linkers.
To study transverse impact behavior by using classical MD approach , Large-scale Atomic/Molecular Massively Parallel Simulator (LAMMPS) software, that is well-known among most researchers, is employed. The simulation is done through predefined commands in LAMMPS. Generally these commands (atom style, pair style, angle style, dihedral style, improper style, kspace style, read data, fix, run, compute and so on) are used to simulate and run the model for the desired outputs. Depends on the particles and model types, suitable inter-atomic potentials (force fields) are considered. The ensembles, constraints and boundary conditions are applied depends upon the problem definition. To do so, atomic creation is needed. Python codes are developed to generate particles which explain atomic arrangement of each model. Each atomic arrangement introduced separately to LAMMPS for simulation. After applying constraints and boundary conditions, LAMMPS also include integrators like velocity-Verlet integrator or Brownian dynamics or other types of integrator to run the simulation and finally the outputs are emerged. The outputs are inspected carefully to appreciate the natural behavior of the problem. Appreciation of natural properties of the materials assist us to design new applicable materials.
In investigation on the large deflection of circular and rectangular membranes, which is related to the second part of this thesis, continuum mechanics approach is implemented. Nonlinear Föppl membrane theory, which carefully release nonlinear governing equations of motion, is considered to establish the non-linear partial differential equilibrium equations of the membranes under distributed and centric point loads. The Galerkin and energy methods are utilized to solve non-linear partial differential equilibrium equations of circular and rectangular plates respectively. Maximum deflection as well as stress through the film region, which are kinds of issue in many industrial applications, are obtained.