Refine
Has Fulltext
- yes (2569) (remove)
Document Type
- Conference Proceeding (857)
- Article (830)
- Doctoral Thesis (493)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Institut für Strukturmechanik (ISM) (164)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
- Professur Informatik in der Architektur (37)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Computerunterstütztes Verfahren (289)
- Architektur (246)
- Architektur <Informatik> (201)
- CAD (184)
- Angewandte Informatik (155)
- Angewandte Mathematik (148)
- Bauhaus (125)
- Architekturtheorie (97)
Analysis of Functionally Graded Porous Materials Using Deep Energy Method and Analytical Solution
(2022)
Porous materials are an emerging branch of engineering materials that are composed of two elements: One element is a solid (matrix), and the other element is either liquid or gas. Pores can be distributed within the solid matrix of porous materials with different shapes and sizes. In addition, porous materials are lightweight, and flexible, and have higher resistance to crack propagation and specific thermal, mechanical, and magnetic properties. These properties are necessary for manufacturing engineering structures such as beams and other engineering structures. These materials are widely used in solid mechanics and are considered a good replacement for classical materials by many researchers recently. Producing lightweight materials has been developed because of the possibility of exploiting the properties of these materials. Various types of porous material are generated naturally or artificially for a specific application such as bones and foams. Like functionally graded materials, pore distribution patterns can be uniform or non-uniform. Biot’s theory is a well-developed theory to study the behavior of poroelastic materials which investigates the interaction between fluid and solid phases of a fluid-saturated porous medium.
Functionally graded porous materials (FGPM) are widely used in modern industries, such as aerospace, automotive, and biomechanics. These advanced materials have some specific properties compared to materials with a classic structure. They are extremely light, while they have specific strength in mechanical and high-temperature environments. FGPMs are characterized by a gradual variation of material parameters over the volume. Although these materials can be made naturally, it is possible to design and manufacture them for a specific application. Therefore, many studies have been done to analyze the mechanical and thermal properties of FGPM structures, especially beams.
Biot was the pioneer in formulating the linear elasticity and thermoelasticity equations of porous material. Since then, Biot's formulation has been developed in continuum mechanics which is named poroelasticity. There are obstacles to analyzing the behavior of these materials accurately like the shape of the pores, the distribution of pores in the material, and the behavior of the fluid (or gas) that saturated pores. Indeed, most of the engineering structures made of FGPM have nonlinear governing equations. Therefore, it is difficult to study engineering structures by solving these complicated equations.
The main purpose of this dissertation is to analyze porous materials in engineering structures. For this purpose, the complex equations of porous materials have been simplified and applied to engineering problems so that the effect of all parameters of porous materials on the behavior of engineering structure has been investigated.
The effect of important parameters of porous materials on beam behavior including pores compressibility, porosity distribution, thermal expansion of fluid within pores, the interaction of stresses between pores and material matrix due to temperature increase, effects of pore size, material thickness, and saturated pores with fluid and unsaturated conditions are investigated.
Two methods, the deep energy method, and the exact solution have been used to reduce the problem hypotheses, increase accuracy, increase processing speed, and apply these in engineering structures. In both methods, they are analyzed nonlinear and complex equations of porous materials.
To increase the accuracy of analysis and study of the effect of shear forces, Timoshenko and Reddy's beam theories have been used. Also, neural networks such as residual and fully connected networks are designed to have high accuracy and less processing time than other computational methods.
The growing complexity of modern engineering problems necessitates development of advanced numerical methods. In particular, methods working directly with discrete structures, and thus, representing exactly some important properties of the solution on a lattice and not just approximating the continuous properties, become more and more popular nowadays. Among others, discrete potential theory and discrete function theory provide a variety of methods, which are discrete counterparts of the classical continuous methods for solving boundary value problems. A lot of results related to the discrete potential and function theories have been presented in recent years. However, these results are related to the discrete theories constructed on square lattices, and, thus, limiting their practical applicability and
potentially leading to higher computational costs while discretising realistic domains.
This thesis presents an extension of the discrete potential theory and discrete function theory to rectangular lattices. As usual in the discrete theories, construction of discrete operators is strongly influenced by a definition of discrete geometric setting. For providing consistent constructions throughout the whole thesis, a detailed discussion on the discrete geometric setting is presented in the beginning. After that, the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, which is the core of the discrete potential theory, its numerical analysis, and practical calculations are presented. By using the discrete fundamental solution of the discrete Laplace operator on a rectangular lattice, the discrete potential theory is then constructed for interior and exterior settings. Several discrete interior and exterior boundary value problems are then solved. Moreover, discrete transmission problems are introduced and several numerical examples of these problems are discussed. Finally, a discrete fundamental solution of the discrete Cauchy-Riemann operator on a rectangular lattice is constructed, and basics of the discrete function theory on a rectangular lattice are provided. This work indicates that the discrete theories provide
solution methods with very good numerical properties to tackle various boundary value problems, as well as transmission problems coupling interior and exterior problems. The results presented in this thesis provide a basis for further development of discrete theories on irregular lattices.
What you are about to read is the very last issue of the ZMK. Since our overall research enterprise, the IKKM, has to cease all of its activities due to the end of its twelve years’ funding by the German federal government, the ZMK will also come to an end. Its last topic, Schalten und Walten has also been the subject of the concluding biannual conference of the IKKM, and we hope it will be a fitting topic to resume the research of the IKKM on Operative Ontologies.
Although this final issue is in English, we decided to leave its title in German: Schalten und Walten. As it is the case for the name of the IKKM, (Internationales Kolleg für Kulturtechnikforschung und Medienphilosophie), the term seems untranslatable to us, not only for the poetic reason of the rhyming sound of the words. Switching and Ruling might be accepted as English versions, but quite an unbridgeable difference remains. In German, Schalten und Walten is a rather common and quite widespread idiom that can be found in everyday life. Whoever, the idiom stipulates, is able to execute Schalten und Walten has the power to act, has freedom of decision and power of disposition.
Although both terms are mentioned together and belong together in the German expression Schalten und Walten, they are nevertheless complements to each other. They both refer to the exercise and existence of domination, disposal or power, but they nonetheless designate two quite different modes of being. Schalten is not so much sheer command over something, but government or management. It is linked to control, intervention and change, in short: it is operative and goes along with distinctive measures and cause-and-effect relations. The English equivalent switching reflects this more or less adequately.
Schwerpunkt Blockchain
(2019)
Neue Medien rufen regelmäßig neue Utopien auf den Plan, die sich untereinander stark ähneln können. Regelmäßig bekommen wir eröffnet, dass, von den Uninformierten noch unbemerkt, eine Medienrevolution im Gange sei, die das Potenzial habe, die Welt grundlegend zu verändern. Diese Erwartungen gelten meistens einem in jeder Hinsicht umwälzenden Zuwachs an Gleichheit und Freiheit Aller. Meistens enden sie jedoch dann in der Feststellung eines Zuwachses an Geld und Macht in den Händen Weniger. So war es beim Radio, beim Video, beim Internet, bei den »sozialen Medien«. Und so ist es auch heute wieder. Eine Medienrevolution finde statt, so hört und liest man, die sich nicht auf kalifornischen Theaterbühnen oder auf Konsumentenelektronik-Messen wie der IFA in Gestalt neuer Gadgets öffentlich präsentiert. Sie spielt sich jenseits der Terminals im unsichtbaren Reich der Vernetzung ab und betrifft subkutan die mediale Instituiertheit der Gesellschaft selbst: die Blockchain.
Schwerpunkt Ontography
(2019)
Research in cultural techniques and media philosophy owe their existence to the fading and passing, the becoming impossible, and finally even the ban on ontology. Just like media history and media theory, they even represent a form of processing of this ending of ontology and a reaction to it. The concept of »Being«, the singular subject of all ontology, taken as unchangeable and as residing somewhere behind or even above all its realizations, concretions and manifestations in the materially existing world, had already been strongly suspected by positivism, vitalism and phenomenology, but had not yet been stripped off. Existential philosophy then ventured further, until finally a number of diverse schools of thought like Foucault’s history of knowledge or Derrida’s deconstruction, Quine’s logic, Heinz von Foerster’s constructivism, Luhmann’s functionalism, or process philosophy in the aftermath of Whitehead could definitively reject ontology with highly effective—albeit strongly diverging—reasons and arguments. These theories and philosophical schools did not agree on anything but on the rejection of ontology. Accordingly, the »ontological difference«, which provided that one could not speak about »Being« in the same way as about an existing being, had to be reconsidered. One solution was to project the ontological difference back into the multitude and materiality of the existing and to provide it with a new language of description and to read it against the backdrop of new types of questions. The offer that media theory and history, the cultural techniques approach, and media philosophy were able to make—successfully—in this situation was essentially a reappraisal not only of technics (»Die Technik«) in the ontological sense, but of technologies and techniques, of practices and their aesthetics. To use Heideggers terms, the focus was now set on »switching« (»Schalten«) rather than on »ruling« (»Walten«). The ban on ontology was nonetheless fully respected, and in cultural and media studies the observation of techniques and technologies, means and processes of the incessant self-differentiation of anything that is ruled out the persistent stunning standstill vis-à-vis the great ontological difference of Being and the existing beings.
Am 22. Januar 2017 wurde die Beraterin des amerikanischen Präsidenten, Kellyanne Conway, in einem Meet the Press-Interview gefragt, warum der Pressesprecher des Präsidenten kurz zuvor eine »nachweisliche Lüge« bezüglich der Zahl der in Washington zur Amtseinführung Trumps zusammengekommenen Menschen geäußert habe. Conway antwortete: »Our press secretary, Sean Spicer, gave alternative facts […]«. Das war nicht nur eine Manifestation oder Überbietung von Orwellianischem »Newspeak«. Es war ein Moment, in dem sich ein Bruch mit dem in der westlichen Kultur bislang allgemein anerkannten Paradigma, worin die Faktizität von Daten – seien es Bilder, Zahlen, Aussagen – gründet, offen aussprach. Es war sozusagen ein ironischer Moment der Wahrheit – ironisch, weil dieser Moment einen Höhepunkt des »Post-Truth«-Zeitalters darstellte.
Doch welche Wahrheit? Dass es dazu unterschiedliche und zum Teil kontroverse Auffassungen gibt, zeigen die verschiedenen Deutungen und Instrumentalisierungen, die dieser Moment der Wahrheit in der Folge erfuhr. Der Debattenteil der letzten Ausgabe der Zeitschrift für Medien- und Kulturforschung hat bereits einen Teil dieser Kontroverse um die Deutung des Phänomens von »fake news« und »alternative facts« dokumentiert. Der Schwerpunkt der vorliegenden Ausgabe setzt diese Kontroverse fort, und zwar deswegen, weil die Kultur- und Medienwissenschaft in mehrfacher Weise vom Ereignis »alternativer Fakten« und den sich anschließenden Kontroversen um ihre Bewertung herausgefordert wird. Sehr schnell wurde nämlich klar, dass die Antwort auf die Frage, welche Wahrheit sich in jenem Moment kundtat, als die Welt aus dem (sich dabei merklich verziehenden) Munde von Kellyanne Conway vom Wunder der Existenz alternativer Fakten erfuhr, nicht einfach nur banal war. So banal wie die Tatsache, dass ein infantiler Narzissmus zur Richtschnur für die Konstruktion der offiziellen amerikanischen Regierungsversion von Wirklichkeit geworden ist, ein Narzissmus, der das, was ist (und wofür es zureichende Gründe gibt), zugunsten dessen verwirft, von dem er möchte, dass es stattdessen sei.
Focus Mediocene
(2018)
This issue, following an international conference held at the IKKM in September 2017, is devoted to what may very well be the broadest media-related topic possible, even if it is accessible only through exemplary and experimental approaches: Under the title of the »Mediocene«, it presents contributions which discuss the operations and functions that intertwine media and Planet Earth. The specific relation of media and Planet Earth likely found its most striking and iconic formula in the images of the earth from outer space in 1968/69, showing the earth—according to contemporaneous descriptions—in its brilliance and splendor as the »Blue Marble«, but also in its fragility and desperate loneliness against the black backdrop of the cosmic void. Not only the creation but also the incredible distribution of this image across the globe was already at the time clearly recognized as a media eff ect. In light of space fl ight and television technology, which had expanded the reach of observation, communication, and measurement beyond both the surface of the Earth and its atmosphere, it also became clearly evident that the Planet had been a product of the early telescope by the use of which Galileo found the visual proof for the Copernican world model. Nevertheless, the »Blue Marble« image of the planet conceives of Earth not only as a celestial body, but also as a global, ecological, and economic system. Satellite and spacecraft technology and imaging continue to move beyond Earth’s orbit even as they enable precise, small-scale procedures of navigation and observation on the surface of the planet itself. These instruments of satellite navigation aff ect practices like agriculture, urban planning, and political decision-making. Most recently, three-dimensional images featuring the planet’s surface (generated from space by Synthetic Aperture Radar) or pictures from space probes have been cir-culating on the Web, altering politico-geographical practices and popular and scientifi c knowledge of the cosmos. Today, media not only participate in the shaping of the planet, but also take place on a planetary scale. Communication systems have been installed that operate all over the globe.
Die vorliegende Ausgabe der Zeitschrift für Medien- und Kulturforschung verdankt sich einem Experiment. In Experimenten, wenigstens soweit es sich zunächst um künstlerische und philosophische Prozeduren handelt, geht es, frei nach Jean-François Lyotard, darum, herauszufinden, welchen Regeln die Verfahren selbst folgen, während man sie bereits anwendet, während man also danach sucht, welchen Regeln man folgt. In eben diesem Sinne bemüht sich das vorliegende Heft um eine Klärung des Verfahrens »operativer Ontologien«. Während in der Kunst das Werk selbst als eine dynamische Instanz der experimentellen Prozedur gelten kann, haben die Herausgeber hier jedoch einen etwas anderen Weg eingeschlagen, indem sie nämlich verschiedene Texte in einem experimentellen Bezugsrahmen angefragt – und wunderbarerweise auch erhalten haben. Wunderbarerweise deshalb, weil sowohl in Philosophie und Kunst als auch in den Wissenschaften jedes Experiment nicht nur mit der Freude am Aufbauen und Einstellen der Apparaturen, Instrumente und Dispositive, am Basteln also, sondern auch mit erheblicher Zumutung und vielleicht einem kleinen Wagnis verbunden ist. Zudem ist zum Zeitpunkt seiner Unternehmung über seinen Ausgang noch nicht das Geringste bekannt. Im vorliegenden Fall, denn die Veröffentlichung ist selbstverständlich das eigentliche Experiment, wissen wir alle also bis jetzt nichts über den Ausgang.
Schwerpunkt Inkarnieren
(2017)
Der Themenschwerpunkt des vorliegenden Heftes der Zeitschrift für Medien- und Kulturforschung wird bestritten von Autoren, die der DFG-Forschergruppe »Medien und Mimesis« angehören, die an der Bauhaus-Universität Weimar angesiedelt, aber zusätzlich über die Universitäten Basel, Bielefeld, Bochum, München und Zürich verteilt ist. Die Forschergruppe untersucht Mimesis als Kulturtechnik vor dem Hintergrund aktueller Entwicklungen in der Medienforschung, die Praktiken und Operationsketten als vorgängig gegenüber den aus ihnen hervorgehenden Subjekt-Objekt-Dichotomien bzw. Subjekt-Werkzeug-Artefakt-Kausalitäten ansehen. Die Auffassung von Mimesis als einer vielgestaltigen Kulturtechnik geht über die in den Kultur- und Literaturwissenschaften ebenso wie in der Philosophie dominierende ästhetische und epistemische Betrachtung der Mimesis hinaus und stellt das geschichtsphilosophische Selbstverständnis der Moderne als eine grundlegend a-mimetische kulturelle und soziale Formation infrage. Mimesis und imitatio werden nicht länger in die Perspektive einer zu ü berwindenden Vorgeschichte der Idee des schöpferischen Menschen und seiner Werkherrschaft gestellt (Blumenberg). Anstatt die Mimesis in einen Gegensatz zur modernen Technik und der auf ihr beruhenden Zivilisation zu manövrieren und das konstruktivistische Selbstverständnis der Neuzeit kulturell zu verallgemeinern und absolut zu setzen, gehen die Projekte der Forschergruppe auf unterschiedlichen Feldern den seinsverändernden, transformatorischen Wirkungen medial gekoppelter mimetischer Praktiken und Verhaltensweisen zwischen dem 15. und dem 21. Jahrhundert nach. ...
Schwerpunkt Medien der Natur
(2016)
Der Schwerpunkt der vorliegenden Ausgabe der ZMK – Medien der Natur – scheint den Medienbegriff aus den Grenzen herauslösen zu wollen, die seine konventionelle Semantik ihm auferlegt hat: aus den Grenzen der Kultur und der Geschichte bzw. der Kulturgeschichte. Man greife zu einer beliebigen älteren oder neueren Mediengeschichte – mag sie mit der Feuertelegraphie in Aischylos’ Agamemnon oder mit den Höhlenmalereien von Lascaux beginnen, eins steht auf jeden Fall fest: Medien sind technische Apparaturen und Installationen, und das heißt von Menschen geschaffene Artefakte, Zeugnisse der menschlichen Kultur. Weder enthalten handelsübliche Mediengeschichten die Beschreibung der Genexprimierung, obwohl Molekularbiologen sich dabei eines explizit medientechnischen Vokabulars wie cut-and-paste oder copy-and-paste bedienen, noch feiern sie die evolutionären Errungenschaften der Tierwelt in Sachen Medientechnik. Dabei ist der Zeichenaustausch zwischen Tieren, der Singvögel etwa oder der in Schwärmen und Völkern lebenden Tiere wie der Bienen, Ameisen und Fische schon lange bekannt und bewundert. In bestimmten Fällen ist der Stand der signal intelligence der Tiere von den Menschen aber auch erst sehr spät, während des Zweiten Weltkriegs, eingeholt worden. Motten aus der Familie der Arctiidae zum Beispiel senden ultrasonische Impulse aus, wenn sie insektivore Fledermäuse detektieren. Die die Motte verfolgende Fledermaus empfängt zwischen den Echos ihres von der Motte reflektierten eigenen Signals die von der Motte gesendeten Signale, und schnappt mithin nach einem akustischen Simulacrum der Motte auf halbem Wege zwischen sich und der eigentlichen Beute. Immerhin hat Michel Serres mit dem Parasiten ein aus der Medientheorie nicht mehr wegzudenkendes Konzept geschaffen – und Parasiten sind auch im biologischen Sinne, etwa als Bakterien, in ersten Ansätzen zum Thema der kulturwissenschaftlichen Medienforschung geworden. Die Operationen der Parasiten können durchaus für die Medienforschung anschluss- und ausbaufähig werden, wie etwa im Konzept des Zwischenwirts. Der Egel Leucochloridium paradoxum zum Beispiel, dessen endlicher Wirt Insekten fressende Vögel sind, muss seinen Zwischenwirt, eine Schnecke, auf die insektivore Vögel keinen Appetit haben, optisch in eine Raupe verwandeln (indem er sich in die Augenfühler der Schnecke schiebt), um an sein Ziel (den Vogelmagen) zu kommen.
Schwerpunkt Verschwinden
(2016)
Warum, so fragt klassischerweise die Ontologie, ist überhaupt etwas und nicht vielmehr nichts? Die dieser Frage zu Grunde liegende Dichotomie von etwas und nichts, Sein und Nichtsein, ist aber selbst voraussetzungsreich und keineswegs zwingend selbstverständlich. Sie ist schon als Frage selbst etwas, das auch nicht sein könnte. Und von dieser Möglichkeit ist schon häufiger Gebrauch gemacht worden. Die scharfe Dichotomie von Sein und Nichtsein ist in der Antike etwa vom Atomismus Demokrits und Epikurs, vom Heraklitismus und den Eleaten, in der Moderne dann unter anderem von Lebenswissenschaften, Vitalismus, Historischem Materialismus, Phänomenologie und Ästhetik unterlaufen worden. Diese und andere Sichtweisen ersetzen die Alternative von Sein und Nichtsein durch die Frage nach dem Werden und Gewordensein, nach den Erscheinungsweisen und dem Erscheinen, nach der Produktion und dem Gemachtsein dessen, was ist (oder nicht ist). Damit öffnen sie das Feld für eine nachfolgende Umstellung der ontologischen Frage: Wie kommt das, was ist, zu Stande, wie ist es zum Sein gelangt, geworden, verfertigt, wie und wodurch zur Erscheinung gekommen? Gerade die letztgenannte Wendung bringt dann ganz unverstellt Medien und Medientechniken und deren Handhabung und Verfügung zur Sprache. Medien als Werkzeuge des Eintretens, Erscheinens oder Erscheinenlassens von etwas zu begreifen, ist demnach eine gängige und überzeugende Konzeption. Ebenso kann das Medium auch das Material sein, in dem sich das Eintreten und Heranbilden vollzieht und das an diesen Prozessen noch stets Anteil hat und ihnen mitwirkt.
Schwerpunkt Sendung
(2015)
Auch die Zeitschrift für Medien- und Kulturforschung erreicht ihre Leserinnen und Leser als Sendung, als Postgut auf dem Wege der Zustellung nämlich. Wer immer sie liest, hat also mit der Sendung zu tun. Allein das schon ist ein Grund, sich mit der Sendung zu befassen. Und ein gewichtiger Grund dazu: Phänomen und Begriff der Sendung haben, das leuchtet schon intuitiv jeder Postkundin, jedem Radiohörer, jedem Gottesdienstbesucher und jeder Goethe-Leserin ein, eine enorme medienwissenschaftliche Relevanz. Als empirischen, kulturtechnischen Sachverhalt kann man die Sendung – also etwa diese Ausgabe der ZMK – physisch in Händen halten (oder auch nicht, wenn die Postsache nicht ankommt), annehmen oder zurückweisen, man kann sie technisch, etwa als Druck- und Redaktionserzeugnis herstellen, sie aufgeben und abholen, verwalten und organisieren, sie bewirtschaften – aber die Sendung lässt sich auch fühlen, verspüren und bemerken, erfüllen und verfehlen, kann bewegen und berühren oder eben unberührt lassen. Ganz real affiziert und attachiert sie, richtet aus und sendet selbst. Als medienphilosophisches Konzept genommen, besitzt die Sendung folglich das Potential zur Entfaltung komplexer Grundannahmen der Medientheorie und zugleich zu ihrer reduzierenden Bündelung und Einfassung. Sie verbindet und durchkreuzt ganz grundsätzlich das begrifflich sorgsam Getrennte, zum Beispiel das Heilige und das Profane, das Materielle und das Immaterielle, das Aktive und das Passive. Sie ist darin ein genuin medienwissenschaftlicher Leitbegriff, an dem sich die gesamte Breite dessen, was Medium sein kann, entfalten lässt, von der Religion bis zum Massenmedium, von der Politik bis zum Postboten, von der Infrastruktur bis zur Entrückung. Sie erzeugt zudem in all ihrer Materialität mannigfaltige paradoxe und reflexive Verläufe – die Sendung überhaupt zu denken, heißt deshalb nicht zuletzt, selber senden und gesandt werden.
Schwerpunkt Textil
(2015)
Textil: Der Titel des Schwerpunkts der vorliegenden Ausgabe der ZMK kann ein Ding, ein Material oder eine Eigenschaft bezeichnen. Als Eigenschaftswort spezifiziert textil indes nicht nur bestimmte Künste näher (den Begriff der textilen Kunst gibt es spätestens seit Gottfried Semper) und umfasst so die Weberei, die Stickerei, das Flechten, Knoten, Stricken, Häkeln, Wirken und vieles andere mehr (Semper zufolge auch die Anfänge der Baukunst), sondern neuerdings auch Medien. Die Rede von den »textilen Medien« zielt offenbar auf einen anderen Aspekt des Medienbegriffs als denjenigen, der von der Trias »Speichern, Übertragen, Verarbeiten« gebildet wird, nämlich auf das Material, nicht auf die Funktion. Nun kann man einerseits diesen Medienbegriff einfach, wie etwa im Bereich der Kunstgeschichte üblich, im Sinne der Materialität eines Bildträgers verstehen. Andererseits jedoch lenkt die Rede von den »textilen Medien«, indem sie die Materialität anstelle der Funktionalität betont, den Fokus auf eine spezifische Medialität des Textilen und darüber hinaus auf eine Medialität des Materials überhaupt. Eben darin liegt der Grund für die seit einigen Jahren zu beobachtende enorme Konjunktur des Textilen in so unterschiedlichen Bereichen wie der Kunst, der Kunstwissenschaft oder der Technik- und Sozialanthropologie. In der Kunstöffentlichkeit belegen eine Reihe von Ausstellungen diese Konjunktur, wie zum Beispiel »Kunst & Textil« in Wolfsburg, »Textiles: Open Letter« in Mönchengladbach, »Decorum. Tapis et Tapisseries d’Artistes« in Paris, »Soft Pictures« in Turin oder »To Open Eyes. Kunst und Textil vom Bauhaus bis heute« in Bielefeld. ...
Schwerpunkt Synchronisation
(2014)
Nichts ist so aktuell wie die Gegenwart; gegenwärtig sein aber heißt gleichzeitig sein mit etwas anderem, und diese Gleichzeitigkeit muss immer eigens durch geeignete Operationen der Übertragung, der Überbrückung, der Abstimmung und ihre Werkzeuge hergestellt werden. So schlicht erklärt sich die grundlegende und aktuelle Relevanz des Themas der Synchronisierung ebenso wie seine kulturtechnische und medienphilosophische Ausformung. Die aktuelle medientheoretische und medienhistorische Aufmerksamkeit für die Verfertigung der Gegenwart (deren wichtigste Operation diejenige der Synchronisierung ist), wie sie sich auch im Jahresthema 2012/2013 der Forschungen am Internationalen Kolleg für Kulturtechnikforschung und Medienphilosophie (IKKM) niedergeschlagen hat, reagiert auf eine spezifische zeitphilosophische Spannungslage, die sich im Anschluss an die strukturale und poststrukturale sowie die systemtheoretische Differenztheorie einerseits und an eher empirische, phänomenale, aber auch technikhistorisch und -theoretisch relevante Sachverhalte andererseits ergeben hat. Den ersten Pol dieser Spannung bildet die Dekonstruktion der Präsenz, etwa, im Sinne Jacques Derridas, der Gleichzeitigkeit von Stimme und Ohr beim Sprechen, oder, im Sinne Deborah Eschs, der Live-Übertragung des Fernsehens. Den anderen Pol jedoch bilden die dennoch sich behauptenden phänomenalen und funktionalen Gleichzeitigkeitserfahrungen und -effekte. Sie umfassen etwa das Miterleben des Spielzuges im Sport, wie Hans Ulrich Gumbrecht es gefasst hat, und zahlreiche andere ästhetische, insbesondere erhabene Erfahrungen. Am anderen Ende der Skala gehören aber auch Prozesse wie die technische Einsteuerung und Abstimmung von Taktfrequenzen in Regelkreisen und Übertragungszusammenhängen zu den gültigen Formen effektiver Gleichzeitigkeit. Auch Verdichtungsvorgänge wie die mehr oder weniger instantane, ereignisbezogene wie ereignisförmige Bildung und Auflösung von Publika sind derlei relevante Präsenzeffekte. Die grundlegende Einsicht in die Gemachtheit und folglich Dekonstruierbarkeit der Gegenwart durch Synchronisierungs- und Desynchronisierungsoperationen jedenfalls widerstreitet nach medienwissenschaftlicher Überzeugung nicht ihrer Wirklichkeit im Sinne der Wirksamkeit – der lateinischen »actualitas«, als deren deutschsprachige Entsprechung die Scholastik des Mittelalters bei Meister Eckhart den Begriff der »Wirklichkeit« erst einführte.
Focus Producing Places
(2014)
Producing places is a twofold topic. It can refer to places as sites that produce something, that are productive, that have operations unfold, or actions happen, or objects emerge. Or it can refer to the fabrication of places as specific entities themselves. With the extended availability and practicability of digital positioning, locating, and tracking systems, it has become evident that places are not just there, but that they are generated, that they are subject to mediatechnological operations and effects. Nonetheless, and at the same time, the aspect of places as being productive has also attracted considerable attention. Furthermore, in either perspective, a media-theoretical challenge has come up. It invests two different threads within the realm of conceptualizing not only space, but precisely place under conditions of media, both of them leading way back into the evolution of media societies and cultural technologies.
Die zunehmende und sich zunehmend ausfächernde Rezeption der Akteur-Netzwerk-Theorie (ANT) in der deutschsprachigen Medientheorie ist als eine der interessantesten Konjunkturen der kulturwissenschaftlichen Medienforschung in den letzten Jahren bezeichnet worden. Zweifellos hängt diese Faszination mit dem Umstand zusammen, dass der Ansatz der ANT der deutschsprachigen Medienforschung einen Ausweg verspricht aus einer Situation, die lange geprägt war vom Gegensatz zwischen Soziologie und Technikmaterialismus oder, mit anderen Worten, vom aufreibenden Kampf um die letztbegründende Instanz des Sozialen oder des Technischen. Da, anders als zum Beispiel in Frankreich und England, hierzulande die Geisteswissenschaften, insbesondere die Literaturwissenschaft, eine wichtige Rolle bei der Entstehung der Medienwissenschaft gespielt haben, konnte dieser noch heute Disziplinen und Forscher voneinander trennende Dissens auch die Gestalt eines Streits um die letztbegründende Instanz des Sinns oder des Nichtsinns, des Hermeneutischen oder des Nichthermeneutischen annehmen. Dabei ist die Frage, ob technische Objekte vollständig sozial konstruiert sind oder das Soziale eine Fiktion ist, die von Techniken produziert wird; oder ob dieser Gegensatz selbst nur ein konstruierter ist, durchaus eine Frage, die auch die ANT im Laufe ihrer ebenfalls durch Querelen gekennzeichneten Geschichte beschäftigt hat. Während die ANT der deutschsprachigen Medienwissenschaft also einerseits ein Versprechen zu machen scheint, so droht sie der kulturwissenschaftlichen Medienforschung andererseits mit dem Verlust ihres ›Markenzeichens‹: der emphatisch betonten empirisch-transzendentalen Sonderrolle der Medien. Daher sieht sich die medienwissenschaftliche Forschung, zumindest soweit sie einen humanwissenschaftlichen Hintergrund hat, der ANT gegenüber zu einer »Gretchenfrage« herausgefordert: Wie hältst du es mit den Medien? Die Antwort fällt, wie könnte es anders sein, zweideutig aus.
Mit dem Thema der Medienanthropologie kehrt eine Fragestellung in den Fokus der ZMK zurück, diesmal als ausdrückliche, die von Anfang an zu den Schwerpunkten ihres wissenschaftlichen Programms gehört hat. In ihrer ersten Ausgabe bereits hat die ZMK sich damit befasst, die philosophische Leitfrage nach dem Menschen medientheoretisch und kulturtechnisch neu zu grundieren. Eine solche Wendung ist daran erkennbar, dass sie von der Frage, was der Mensch sei, umstellt auf Fragen nach dem Werden und Gemachtwerden des Menschen, nach seiner Hominisierung und ihren Diskursen, ihren Verfahren, Werkzeugen und Orten in Raum und Zeit. Nicht so sehr was, sondern wo und wann, unter welchen Bedingungen und mithilfe welcher Instrumente und Operationen der Mensch sei, darum, so der Ausgangsgedanke, geht es der Medienanthropologie. Damals, in der ersten Ausgabe der ZMK, bestand die Leitidee darin, sich diesen Fragen zunächst von der Peripherie her zu nähern und die so verstandenen Bedingungen des Menschseins von der Gefährdung des Menschen, von einem exemplarischen Grenzzustand aus zu betrachten, in dem diese Bedingungen problematisch werden können, nämlich demjenigen der Angst. Heute, und mit der vorliegenden Ausgabe, wird ein anderer, zusätzlicher und zugleich weiter greifender Aspekt gesetzt. Denn das Feld der Medienanthropologie hat sich in den vergangenen Jahren ver-
ändert; die Debatten sind intensiviert und die Forschungen diversifiziert worden. In dieses Feld greift die ZMK nun mit einer dezidierten Position ein, die auf kontinuierliche Diskussionen und Entwicklungen innerhalb der Kulturtechnikforschung und der Medienphilosophie und auch zwischen ihnen aufbauen kann.
Schwerpunkt Kollektiv
(2012)
Die neuere und höchst produktive Konjunktur des »Kollektiv«-Begriffs in Soziologie und Kulturtheorie, wie sie sich insbesondere durch die Ent-faltung der Akteur-Netzwerk-Theorie herausgebildet hat, ist zunächst durch vier miteinander zusammenhängende Eigentümlichkeiten gekennzeichnet. Erstens bezeichnet das »Kollektiv« in diesem Sinne vor allem anderen eine Ansammlung von Entitäten zu einem als Ganzem operativen, möglicherweise sogar handlungs- und reflexionsfähigen Komplex. Die Operationen werden dabei erstens im »Kollektiv« und durch das »Kollektiv« ausgeführt, gleichzeitig jedoch sind sie es, die das »Kollektiv« überhaupt erst aufspannen und relationieren und so zusammenhalten und reproduzieren bzw. variieren. Das Besondere daran ist zweitens – und das unterscheidet den »Kollektiv«-Begriff etwa von demjenigen des Systems –, dass es keine Subsumption der beteiligten Entitäten unter das kollektive Gebilde gibt. Die Operationsfähigkeit und der Zusammenschluss führen weder zu einem Aufgehen des Einzelnen im Ganzen, noch zerfällt im Rückfall das Ganze in eine bloße Gesamtheit aufsummierbarer Teile und Effekte. Kurz: Das »Kollektiv« kann nicht über die Beziehung von Ganzem und Teil definiert und schon gar nicht nach einer dieser beiden Seiten hin aufgelöst werden. Drittens, und das ist der vermutlich plakativste Zug des neuen »Kollektiv«-Begriffs, umfasst das »Kollektiv« Entitäten völlig heterogener Art, genauer: Es bringt solche Gegebenheiten zusammen, die nach klassischer ontologischer Tradition verschiedenen Seinsbezirken zugerechnet worden wären. Das sind vor allem die berühmten menschlichen und nichtmenschlichen Akteure Bruno Latours, das sind also Personen und Artefakte, Kultur- und Naturdinge, Intelligibles und Sensibles, Reflexives und Irreflexives, Technisches und Ästhetisches, Bilder und Objekte oder sogar Materielles und Immaterielles wie Geister, Götter und Ahnen, so bei Descola oder Gell. Und viertens schließlich ist der »Kollektiv«-Begriff speziell ein Kontrastbegriff , der innerhalb der »neuen Soziologie« der Akteur-Netzwerk-Theorie an die Stelle des Gesellschaftsbegriff s treten soll, eben um dessen humanozentrische Prägung einerseits und seine subsumptive, generalisierende und anti-partikulare Tradition
andererseits abzustreifen.
Schwerpunkt Entwerfen
(2012)
Entwerfen ist ein äusserst unscharfer Begriff. Mit ihm kann je nach Kontext ebenso Zeichnen, Planen, Modellieren, Projektieren oder Darstellen gemeint sein wie Erfi nden, Entwickeln, Konzipieren, Komponieren und ähnliches. Wenn Architekten vom Entwurf reden, verwenden sie das Wort meist in einer Bedeutung, die auf den kunsttheoretischen Diskurs zurückgeht, der im Florenz des 16. Jahrhunderts entstanden ist: Entwurf als disegno. Dementsprechend konnte Entwerfen in der kunsthermeneutischen Rezeption schließlich mit dem ›künstlerischen Schaff ensprozess‹ selbst synonym werden. Im Entwerfen meint man der geistigen Vermögen und Prozesse im künstlerischen Subjekt habhaft zu werden.
An diese Tradition soll hier bewusst nicht angeknüpft werden. Um das Entwerfen als Kulturtechnik in seiner historischen Bedingtheit zu beschreiben, muss es aus dem anthropozentrischen Ursprung herausgerückt werden, an den es der florentinische kunsttheoretische Diskurs versetzt hat. Statt das Entwerfen als fundamentalen Akt künstlerischen Schaff ens zu begreifen und als anthropologische Konstante der Geschichte zu entziehen, wäre eben diese Konzeption als historisches Resultat von diskursiven, technischen und institutionellen Praktiken zu befragen.
Dieses Heft, das Beiträge zum Schwerpunktthema Medien des Rechts versammelt, ist kein Heft wie jedes andere. Es ist unserer Kollegin Cornelia Vismann gewidmet, die am 28. August 2010 viel zu früh gestorben ist. Cornelia Vismann war von 2008 bis zu ihrem Tod Professorin für Geschichte und Theorie der Kulturtechniken an der Bauhaus-Universität Weimar. Sie hat dieser Professur ihr eigenes Profil verliehen, indem sie zum einen die Geschichte und Theorie des Rechts als eine Theorie und Geschichte von Kulturtechniken reformulierte, zum anderen aber auch die unhintergehbare rechtliche Relevanz – die Recht setzende Gewalt – von Kulturtechniken betonte und gezielt herausarbeitete. Dadurch hat sie der Sache und der Erforschung der Kulturtechniken eine unerhörte Dringlichkeit gegeben, eine Dringlichkeit, die ihr Verhältnis zur wissenschaftlichen Forschung und Lehre überhaupt widerspiegelt.
Schwerpunkt Offene Objekte
(2011)
Die ›Zeitschrift für Medien- und Kulturforschung‹ arbeitet an einer Standortbestimmung der Medien- und Kulturwissenschaft; in thematischer, methodischer und struktureller Hinsicht sowie nicht zuletzt in wissenschaftsgeschichtlicher Perspektive. In ihren letzten beiden Ausgaben hat sie verstärkt und konzentriert programmatische Aspekte der Medienphilosophie und der Kulturtechnikforschung ausgearbeitet und vorgestellt. Damit hat sie ihre Aufmerksamkeit auf spezifische – und möglicherweise innovative – Felder und Ansätze innerhalb des weiteren Geschehens der Medien- und Kulturwissenschaft gelenkt und eine Paradigmendiskussion aufgenommen. ...
Schwerpunkt Mediephilosophie
(2010)
Die prominent und polemisch geäusserte Ansicht, bei der Medienphilosophie handele es sich um eine vorübergehende Angelegenheit, ist vermutlich sehr zutreff end. Medienphilosophie selbst hat nie etwas anderes behauptet. Und genau aus diesem Grund, also eben wegen ihrer Vorläufigkeit, ist Medienphilosophie so wichtig. Sie tritt vielleicht tatsächlich als neue, modische Unterdisziplin der Philosophie auf. Aber sie tut dies, weil sie eine sehr ernsthafte Herausforderung an die Philosophie darstellt. Wie und wann sie wieder vergeht, das hängt davon ab, was sie ausrichtet. Medienphilosophie ist nämlich in ihrem Selbstverständnis ein grundlegend operatives und operationales Unternehmen. Daher rührt ihre große Nähe zu und ihr vitales Interesse an den Kulturtechniken und ihrer Erforschung.
Sie interessiert sich für Eingriff e aller Art – und ist selbst einer. Sie hat – und zwar keineswegs nur metaphorisch – Anteil am materiellen Körper der Philosophie, für den Philosophie selbst, immer hart am Begriff , sich gar nicht interessiert und dies auch nicht tun muss. Zum materiellen Körper der Philosophie zählten bereits die schreibende Hand, vielleicht das vorrangige Medium des philosophischen Eingriffs, und ihr Werkzeug, das Schreibzeug, das sie führt. Als Medienphilosophie widmet sich die Philosophie den Gesten, die sie in der Welt ausführt, und den Operationen, die sie an den Dingen und mit ihrer Hilfe vornimmt.
Schwerpunkt Kulturtechnik
(2010)
Medientheorie und historische Medienwissenschaft sind seit geraumer Zeit dabei, einen Schritt zu tun, der sie hierzulande zumindest teilweise in historische und systematische Kulturtechnikforschung überführt. Die Möglichkeit existiert, dass die Medien als Referenz eines Wissenschaftsparadigmas, das gerade dabei ist, die Forschungs- und Lehrstrukturen dieses Landes zu erobern, sich bereits im Zustand bloßen Nachlebens befinden. Damit kommen mindestens jene Teile der Medienforschung zu sich, die seit der Institutionalisierung von Medienwissenschaft realisieren mussten, dass jene Medien, mit denen sie es seit den 1980er Jahren zu tun hatten, sich nur schwer in den Rahmen der Medien der Medienwissenschaft fügen wollen. Es scheint daher so, als ließe sich mit dem Begriff der Kulturtechniken etwas fassen, das schon seit den 80er Jahren eine Spezifik der entstehenden deutschen Medienwissenschaft gewesen ist, eine Spezifik, die sie den angloamerikanischen media studies ebenso entfremdete wie der Kommunikationswissenschaft oder gar der Soziologie, die, im Banne der Aufklärung und des Gesellschaftsbegriff s stehend, über Medien grundsätzlich nur unter dem Aspekt der Öff entlichkeit nachdenken wollte. Was sich in den 80er Jahren des letzten Jahrhunderts etwa unter dem Titel einer Diskurs- und Medienanalyse formierte, zielte nicht primär auf eine Medientheorie oder die Geschichte von Einzelmedien ab, die längst identitätsstiftend für je eigene Forschungsdisziplinen geworden waren (Fotografie, Film, Fernsehen, Rundfunk), sondern auf eine Geschichte der Literatur, des Geistes, der Seele und der Sinne, die man der Literaturwissenschaft, der Philosophie, der Psychologie und der Ästhetik wegzunehmen gedachte, um sie auf einem anderen Schauplatz aufzuführen: dem der Medien – und gegenwärtig der Kulturtechniken. Weil aber gar nicht die Medien im Fokus der Entdeckung standen, sondern eine Rekontextualisierung der traditionellen Gegenstände der Geisteswissenschaften, genauer eine »Austreibung des Geistes aus den Geisteswissenschaften« (Friedrich Kittler), kam von vornherein anderes in den Blick als diejenigen Medien, die die Publizistik- und Kommunikationswissenschaft, die Massenmedienforschung oder die Einzelmedienwissenschaften als ihre primären Untersuchungsfelder auswiesen.
Schwerpunkt Angst
(2009)
Nach einem Jahrhundert ihres relativ soliden, fraglosen Bestehens sind die modernen Geisteswissenschaften seit etwa 25 Jahren einer tiefgreifenden Herausforderung ausgesetzt. Diese Herausforderung ist so epochal wie die Entstehung der Geisteswissenschaften selbst. Sie wurde und wird weiterhin weder von den exaktwissenschaftlichen Fakultäten noch von den Ökonomisierungsanfällen der Politik vorgetragen, sondern vielmehr vom Aufkommen eines ganz neuen Wissenstyps aus dem Herzen der philosophischen Fächer selbst.
Die Herausbildung und anschließende Institutionalisierung dieses neuen Wissenstyps geschah zunächst disparat und ist heute bei weitem noch nicht abgeschlossen. Aber er hat sich unter verschiedenen Bezeichnungen und in verschiedenen Verfassungen doch inzwischen nachdrücklich etabliert. Seine gewiss wirksamste Form hat dieser neue Wissenstyp und hat diese Herausforderung unter der Bezeichnung der Medien- und Kulturwissenschaft erfahren. Medien- und Kulturwissenschaft muss sich heute, anders als vor gut zwanzig Jahren, kaum mehr eigens behaupten. Die Frage ist nur noch, ob sie sich innerhalb des Kanons der Fächer der philosophischen Fakultät als ein weiteres Paradigma der Geisteswissenschaften durchsetzt oder aber außerhalb Platz findet, als Kompensationsunternehmen.
Zugang zu gesunder und nachhaltiger Ernährung ist in Berlin nicht für alle Menschen eine Selbstverständlichkeit. Um Ernährung für alle gewährleisten zu können, braucht es einen Wandel des Ernährungssystems in Berlin, der eine ökologische, klima- und sozialgerechte Nahrungsproduktion und Verteilung für alle Menschen in der Stadt ermöglicht.
Einen Beitrag um die Ernährung in der Stadt gerechter und nachhaltiger zu gestalten kann ein sogenannter LebensMittelPunkt (LMP) leisten.
LebensMittelPunkte entstehen meist aus ehrenamtlichen Initiativen, können aber auch in Zusammenarbeit mit städtischen Verwaltungen etabliert werden. Eine Zusammenarbeit zwischen zivilgesellschaftlichen Organisationen und Verwaltungen kann dabei Potenziale und Ressourcen freisetzen.
Dieser Leitfaden soll ernährungspolitischen Initiativen und Vereinen aus der Zivilgesellschaft sowie kommunalen oder bezirklichen Verwaltungen in Berlin – und darüber hinaus – Empfehlungen geben, wie ein LebensMittelPunkt in einer gemeinsamen Kooperation aufgebaut werden kann.
For the safe and efficient operation of dams, frequent monitoring and maintenance are required. These are usually expensive, time consuming, and cumbersome. To alleviate these issues, we propose applying a wave-based scheme for the location and quantification of damages in dams.
To obtain high-resolution “interpretable” images of the damaged regions, we drew inspiration from non-linear full-multigrid methods for inverse problems and applied a new cyclic multi-stage full-waveform inversion (FWI) scheme. Our approach is less susceptible to the stability issues faced by the standard FWI scheme when dealing with ill-posed problems. In this paper, we first selected an optimal acquisition setup and then applied synthetic data to demonstrate the capability of our approach in identifying a series of anomalies in dams by a mixture of reflection and transmission tomography. The results had sufficient robustness, showing the prospects of application in the field of non-destructive testing of dams.
Encapsulation-based self-healing concrete (SHC) is the most promising technique for providing a self-healing mechanism to concrete. This is due to its capacity to heal fractures effectively without human interventions, extending the operational life and lowering maintenance costs. The healing mechanism is created by embedding capsules containing the healing agent inside the concrete. The healing agent will be released once the capsules are fractured and the healing occurs in the vicinity of the damaged part. The healing efficiency of the SHC is still not clear and depends on several factors; in the case of microcapsules SHC the fracture of microcapsules is the most important aspect to release the healing agents and hence heal the cracks. This study contributes to verifying the healing efficiency of SHC and the fracture mechanism of the microcapsules. Extended finite element method (XFEM) is a flexible, and powerful discrete crack method that allows crack propagation without the requirement for re-meshing and has been shown high accuracy for modeling fracture in concrete. In this thesis, a computational fracture modeling approach of Encapsulation-based SHC is proposed based on the XFEM and cohesive surface technique (CS) to study the healing efficiency and the potential of fracture and debonding of the microcapsules or the solidified healing agents from the concrete matrix as well. The concrete matrix and a microcapsule shell both are modeled by the XFEM and combined together by CS. The effects of the healed-crack length, the interfacial fracture properties, and microcapsule size on the load carrying capability and fracture pattern of the SHC have been studied. The obtained results are compared to those obtained from the zero thickness cohesive element approach to demonstrate the significant accuracy and the validity of the proposed simulation. The present fracture simulation is developed to study the influence of the capsular clustering on the fracture mechanism by varying the contact surface area of the CS between the microcapsule shell and the concrete matrix. The proposed fracture simulation is expanded to 3D simulations to validate the 2D computational simulations and to estimate the accuracy difference ratio between 2D and 3D simulations. In addition, a proposed design method is developed to design the size of the microcapsules consideration of a sufficient volume of healing agent to heal the expected crack width. This method is based on the configuration of the unit cell (UC), Representative Volume Element (RVE), Periodic Boundary Conditions (PBC), and associated them to the volume fraction (Vf) and the crack width as variables. The proposed microcapsule design is verified through computational fracture simulations.
The computational costs of newly developed numerical simulation play a critical role in their acceptance within both academic use and industrial employment. Normally, the refinement of a method in the area of interest reduces the computational cost. This is unfortunately not true for most nonlocal simulation, since refinement typically increases the size of the material point neighborhood. Reducing the discretization size while keep- ing the neighborhood size will often require extra consideration. Peridy- namic (PD) is a newly developed numerical method with nonlocal nature. Its straightforward integral form equation of motion allows simulating dy- namic problems without any extra consideration required. The formation of crack and its propagation is known as natural to peridynamic. This means that discontinuity is a result of the simulation and does not demand any post-processing. As with other nonlocal methods, PD is considered an expensive method. The refinement of the nodal spacing while keeping the neighborhood size (i.e., horizon radius) constant, emerges to several nonphysical phenomena.
This research aims to reduce the peridynamic computational and imple- mentation costs. A novel refinement approach is introduced. The pro- posed approach takes advantage of the PD flexibility in choosing the shape of the horizon by introducing multiple domains (with no intersections) to the nodes of the refinement zone. It will be shown that no ghost forces will be created when changing the horizon sizes in both subdomains. The approach is applied to both bond-based and state-based peridynamic and verified for a simple wave propagation refinement problem illustrating the efficiency of the method. Further development of the method for higher dimensions proves to have a direct relationship with the mesh sensitivity of the PD. A method for solving the mesh sensitivity of the PD is intro- duced. The application of the method will be examined by solving a crack propagation problem similar to those reported in the literature.
New software architecture is proposed considering both academic and in- dustrial use. The available simulation tools for employing PD will be collected, and their advantages and drawbacks will be addressed. The challenges of implementing any node base nonlocal methods while max- imizing the software flexibility to further development and modification
will be discussed and addressed. A software named Relation-Based Sim- ulator (RBS) is developed for examining the proposed architecture. The exceptional capabilities of RBS will be explored by simulating three dis- tinguished models. RBS is available publicly and open to further develop- ment. The industrial acceptance of the RBS will be tested by targeting its performance on one Mac and two Linux distributions.
A safe and economic structural design based on the semi-probabilistic concept requires statistically representative safety elements, such as characteristic values, design values, and partial safety factors. Regarding climate loads, the safety levels of current design codes strongly reflect experiences based on former measurements and investigations assuming stationary conditions, i.e. involving constant frequencies and intensities. However, due to climate change, occurrence of corresponding extreme weather events is expected to alter in the future influencing the reliability and safety of structures and their components. Based on established approaches, a systematically refined data-driven methodology for the determination of design parameters considering nonstationarity as well as standardized targets of structural reliability or safety, respectively, is therefore proposed. The presented procedure picks up fundamentals of European standardization and extends them with respect to nonstationarity by applying a shifting time window method. Taking projected snow loads into account, the application of the method is exemplarily demonstrated and various influencing parameters are discussed.
The computational costs of newly developed numerical simulation play a critical role in their acceptance within both academic use and industrial employment. Normally, the refinement of a method in the area of interest reduces the computational cost. This is unfortunately not true for most nonlocal simulation, since refinement typically increases the size of the material point neighborhood. Reducing the discretization size while keep- ing the neighborhood size will often require extra consideration. Peridynamic (PD) is a newly developed numerical method with nonlocal nature. Its straightforward integral form equation of motion allows simulating dynamic problems without any extra consideration required. The formation of crack and its propagation is known as natural to peridynamic. This means that discontinuity is a result of the simulation and does not demand any post-processing. As with other nonlocal methods, PD is considered an expensive method. The refinement of the nodal spacing while keeping the neighborhood size (i.e., horizon radius) constant, emerges to several nonphysical phenomena.
This research aims to reduce the peridynamic computational and imple- mentation costs. A novel refinement approach is introduced. The pro- posed approach takes advantage of the PD flexibility in choosing the shape of the horizon by introducing multiple domains (with no intersections) to the nodes of the refinement zone. It will be shown that no ghost forces will be created when changing the horizon sizes in both subdomains. The approach is applied to both bond-based and state-based peridynamic and verified for a simple wave propagation refinement problem illustrating the efficiency of the method. Further development of the method for higher dimensions proves to have a direct relationship with the mesh sensitivity of the PD. A method for solving the mesh sensitivity of the PD is intro- duced. The application of the method will be examined by solving a crack propagation problem similar to those reported in the literature.
New software architecture is proposed considering both academic and in- dustrial use. The available simulation tools for employing PD will be collected, and their advantages and drawbacks will be addressed. The challenges of implementing any node base nonlocal methods while max- imizing the software flexibility to further development and modification will be discussed and addressed. A software named Relation-Based Sim- ulator (RBS) is developed for examining the proposed architecture. The exceptional capabilities of RBS will be explored by simulating three distinguished models. RBS is available publicly and open to further develop- ment. The industrial acceptance of the RBS will be tested by targeting its performance on one Mac and two Linux distributions.
Finite Element Simulations of dynamically excited structures are mainly influenced by the mass, stiffness, and damping properties of the system, as well as external loads. The prediction quality of dynamic simulations of vibration-sensitive components depends significantly on the use of appropriate damping models. Damping phenomena have a decisive influence on the vibration amplitude and the frequencies of the vibrating structure. However, developing realistic damping models is challenging due to the multiple sources that cause energy dissipation, such as material damping, different types of friction, or various interactions with the environment.
This thesis focuses on thermoelastic damping, which is the main cause of material damping in homogeneous materials. The effect is caused by temperature changes due to mechanical strains. In vibrating structures, temperature gradients arise in adjacent tension and compression areas. Depending on the vibration frequency, they result in heat flows, leading to increased entropy and the irreversible transformation of mechanical energy into thermal energy.
The central objective of this thesis is the development of efficient simulation methods to incorporate thermoelastic damping in finite element analyses based on modal superposition. The thermoelastic loss factor is derived from the structure's mechanical mode shapes and eigenfrequencies. In subsequent analyses that are performed in the time and frequency domain, it is applied as modal damping.
Two approaches are developed to determine the thermoelastic loss in thin-walled plate structures, as well as three-dimensional solid structures. The realistic representation of the dissipation effects is verified by comparing the simulation results with experimentally determined data. Therefore, an experimental setup is developed to measure material damping, excluding other sources of energy dissipation.
The three-dimensional solid approach is based on the determination of the generated entropy and therefore the generated heat per vibration cycle, which is a measure for thermoelastic loss in relation to the total strain energy. For thin plate structures, the amount of bending energy in a modal deformation is calculated and summarized in the so-called Modal Bending Factor (MBF). The highest amount of thermoelastic loss occurs in the state of pure bending. Therefore, the MBF enables a quantitative classification of the mode shapes concerning the thermoelastic damping potential.
The results of the developed simulations are in good agreement with the experimental results and are appropriate to predict thermoelastic loss factors. Both approaches are based on modal superposition with the advantage of a high computational efficiency. Overall, the modeling of thermoelastic damping represents an important component in a comprehensive damping model, which is necessary to perform realistic simulations of vibration processes.
The goal of architecture is changing in response to the expanding role of cities, rapid urbanization, and transformation under changing economic, environmental, social, and demographic factors. As cities increased in the early modern era, overcrowding, urbanization, and pollution conditions led reformers to consider the future shape of the cities. One of the most critical topics in contemporary architecture is the subject of the future concepts of living. In most cases, domed cities, as a future concept of living, are rarely considered, and they are used chiefly as “utopian” visions in the discourse of future ways of living. This paper highlights the reviews of domed cities to deepen the understanding of the idea in practice, like its approach in terms of architecture. The main aim of this paper is to provide a broad overview for domed cities in the face of pollution as one of the main concerns in many European cities. As a result, the significance of the reviews of the existing projects is focused on their conceptual quality. This review will pave the way for further studies in terms of future developments in the realm of domed cities. In this paper, the city of Celje, one of the most polluted cities in Slovenia, is taken as a case study for considering the concept of Dome incorporated due to the lack of accessible literature on the topic. This review’s primary contribution is to allow architects to explore a broad spectrum of innovation by comparing today’s achievable statuses against the possibilities generated by domed cities. As a result of this study, the concept of living under the Dome remains to be developed in theory and practice. The current challenging climatic situation will accelerate the evolution of these concepts, resulting in the formation of new typologies, which are a requirement for humanity.
Design-related reassessment of structures integrating Bayesian updating of model safety factors
(2022)
In the semi-probabilistic approach of structural design, the partial safety factors are defined by considering some degree of uncertainties to actions and resistance, associated with the parameters’ stochastic nature. However, uncertainties for individual structures can be better examined by incorporating measurement data provided by sensors from an installed health monitoring scheme. In this context, the current study proposes an approach to revise the partial safety factor for existing structures on the action side, γE by integrating Bayesian model updating. A simple numerical example of a beam-like structure with artificially generated measurement data is used such that the influence of different sensor setups and data uncertainties on revising the safety factors can be investigated. It is revealed that the health monitoring system can reassess the current capacity reserve of the structure by updating the design safety factors, resulting in a better life cycle assessment of structures. The outcome is furthermore verified by analysing a real life small railway steel bridge ensuring the applicability of the proposed method to practical applications.
Bolted connections are widely employed in structures like transmission poles, wind turbines, and television (TV) towers. The behaviour of bolted connections is often complex and plays a significant role in the overall dynamic characteristics of the structure. The goal of this work is to conduct a fatigue lifecycle assessment of such a bolted connection block of a 193 m tall TV tower, for which 205 days of real measurement data have been obtained from the installed monitoring devices. Based on the recorded data, the best-fit stochastic wind distribution for 50 years, the decisive wind action, and the locations to carry out the fatigue analysis have been decided. A 3D beam model of the entire tower is developed to extract the nodal forces corresponding to the connection block location under various mean wind speeds, which is later coupled with a detailed complex finite element model of the connection block, with over three million degrees of freedom, for acquiring stress histories on some pre-selected bolts. The random stress histories are analysed using the rainflow counting algorithm (RCA) and the damage is estimated using Palmgren-Miner's damage accumulation law. A modification is proposed to integrate the loading sequence effect into the RCA, which otherwise is ignored, and the differences between the two RCAs are investigated in terms of the accumulated damage.
Determining the earthquake hazard of any settlement is one of the primary studies for reducing earthquake damage. Therefore, earthquake hazard maps used for this purpose must be renewed over time. Turkey Earthquake Hazard Map has been used instead of Turkey Earthquake Zones Map since 2019. A probabilistic seismic hazard was performed by using these last two maps and different attenuation relationships for Bitlis Province (Eastern Turkey) were located in the Lake Van Basin, which has a high seismic risk. The earthquake parameters were determined by considering all districts and neighborhoods in the province. Probabilistic seismic hazard analyses were carried out for these settlements using seismic sources and four different attenuation relationships. The obtained values are compared with the design spectrum stated in the last two earthquake maps. Significant differences exist between the design spectrum obtained according to the different exceedance probabilities. In this study, adaptive pushover analyses of sample-reinforced concrete buildings were performed using the design ground motion level. Structural analyses were carried out using three different design spectra, as given in the last two seismic design codes and the mean spectrum obtained from attenuation relationships. Different design spectra significantly change the target displacements predicted for the performance levels of the buildings.
Material failure can be tackled by so-called nonlocal models, which introduce an intrinsic length scale into the formulation and, in the case of material failure, restore the well-posedness of the underlying boundary value problem or initial boundary value problem. Among nonlocal models, peridynamics (PD) has attracted a lot of attention as it allows the natural transition from continuum to discontinue and thus allows modeling of discrete cracks without the need to describe and track the crack topology, which has been a major obstacle in traditional discrete crack approaches. This is achieved by replacing the divergence of the Cauchy stress tensor through an integral over so-called bond forces, which account for the interaction of particles. A quasi-continuum approach is then used to calibrate the material parameters of the bond forces, i.e., equating the PD energy with the energy of a continuum. One major issue for the application of PD to general complex problems is that they are limited to fairly simple material behavior and pure mechanical problems based on explicit time integration. PD has been extended to other applications but losing simultaneously its simplicity and ease in modeling material failure. Furthermore, conventional PD suffers from instability and hourglass modes that require stabilization. It also requires the use of constant horizon sizes, which drastically reduces its computational efficiency. The latter issue was resolved by the so-called dual-horizon peridynamics (DH-PD) formulation and the introduction of the duality of horizons.
Within the nonlocal operator method (NOM), the concept of nonlocality is further extended and can be considered a generalization of DH-PD. Combined with the energy functionals of various physical models, the nonlocal forms based on the dual-support concept can be derived. In addition, the variation of the energy functional allows implicit formulations of the nonlocal theory. While traditional integral equations are formulated in an integral domain, the dual-support approaches are based on dual integral domains. One prominent feature of NOM is its compatibility with variational and weighted residual methods. The NOM yields a direct numerical implementation based on the weighted residual method for many physical problems without the need for shape functions. Only the definition of the energy or boundary value problem is needed to drastically facilitate the implementation. The nonlocal operator plays an equivalent role to the derivatives of the shape functions in meshless methods and finite element methods (FEM). Based on the variational principle, the residual and the tangent stiffness matrix can be obtained with ease by a series of matrix multiplications. In addition, NOM can be used to derive many nonlocal models in strong form.
The principal contributions of this dissertation are the implementation and application of NOM, and also the development of approaches for dealing with fractures within the NOM, mostly for dynamic fractures. The primary coverage and results of the dissertation are as follows:
-The first/higher-order implicit NOM and explicit NOM, including a detailed description of the implementation, are presented. The NOM is based on so-called support, dual-support, nonlocal operators, and an operate energy functional ensuring stability. The nonlocal operator is a generalization of the conventional differential operators. Combining with the method of weighted residuals and variational principles, NOM establishes the residual and tangent stiffness matrix of operate energy functional through some simple matrix without the need of shape functions as in other classical computational methods such as FEM. NOM only requires the definition of the energy drastically simplifying its implementation. For the sake of conciseness, the implementation in this chapter is focused on linear elastic solids only, though the NOM can handle more complex nonlinear problems. An explicit nonlocal operator method for the dynamic analysis of elasticity solid problems is also presented. The explicit NOM avoids the calculation of the tangent stiffness matrix as in the implicit NOM model. The explicit scheme comprises the Verlet-velocity algorithm. The NOM can be very flexible and efficient for solving partial differential equations (PDEs). It's also quite easy for readers to use the NOM and extend it to solve other complicated physical phenomena described by one or a set of PDEs. Several numerical examples are presented to show the capabilities of this method.
-A nonlocal operator method for the dynamic analysis of (thin) Kirchhoff plates is proposed. The nonlocal Hessian operator is derived from a second-order Taylor series expansion. NOM is higher-order continuous, which is exploited for thin plate analysis that requires $C^1$ continuity. The nonlocal dynamic governing formulation and operator energy functional for Kirchhoff plates are derived from a variational principle. The Verlet-velocity algorithm is used for time discretization. After confirming the accuracy of the nonlocal Hessian operator, several numerical examples are simulated by the nonlocal dynamic Kirchhoff plate formulation.
-A nonlocal fracture modeling is developed and applied to the simulation of quasi-static and dynamic fractures using the NOM. The phase field's nonlocal weak and associated strong forms are derived from a variational principle. The NOM requires only the definition of energy. We present both a nonlocal implicit phase field model and a nonlocal explicit phase field model for fracture; the first approach is better suited for quasi-static fracture problems, while the key application of the latter one is dynamic fracture. To demonstrate the performance of the underlying approach, several benchmark examples for quasi-static and dynamic fracture are solved.
Der vorliegende Handlungsleitfaden hilft zivilgesellschaftlichen Organisationen und staatlichen Einrichtungen bei der Installation eines anonymen Behandlungs- oder Krankenschein für Menschen ohne Krankenversicherung. Dabei bündelt sich hier der Erfahrungsschatz verschiedener Initiativen aus dem gesamten Bundesgebiet.
The floods in 2002 and 2013, as well as the recent flood of 2021, caused billions Euros worth of property damage in Germany. The aim of the project Innovative Vulnerability and Risk Assessment of Urban Areas against Flood Events (INNOVARU) involved the development of a practicable flood damage model that enables realistic damage statements for the residential building stock. In addition to the determination of local flood risks, it also takes into account the vulnerability of individual buildings and allows for the prognosis of structural damage. In this paper, we discuss an improved method for the prognosis of structural damage due to flood impact. Detailed correlations between inundation level and flow velocities depending on the vulnerability of the building types, as well as the number of storeys, are considered. Because reliable damage data from events with high flow velocities were not available, an innovative approach was adopted to cover a wide range of flow velocities. The proposed approach combines comprehensive damage data collected after the 2002 flood in Germany with damage data of the 2011 Tohoku earthquake tsunami in Japan. The application of the developed methods enables a reliable reinterpretation of the structural damage caused by the August flood of 2002 in six study areas in the Free State of Saxony.
The Gated Community (GC) phenomenon in Latin American cities has become an inherent element of their urban development, despite academical debate, their approach thrives within the housing market; not surprisingly, as some of the premises on which GCs are based, namely safety, control and supervision intersperse seamlessly with the insecure conditions of the contexts from which they arise. The current security crisis in Mexico, triggered in 2006 by the so-called war on drugs, has reached its peak with the highest insecurity rates in decades, representing a unique chance to study these interactions. Although the leading term of this research, Urban Agoraphobia, implies a causal dichotomy between the rise in the sense of fear amongst citizens and housing confinement as lineal consequence, I acknowledge that GCs represent a complex phenomenon, a hub of diverse factors and multidimensional processes held on four fundamental levels: global, social, individual and state-related. The focus of this dissertation is set on the individual plane and contributes, from the analysis of the GC’s resident’s perspective, experiences and perceptions, to a debate that has usually been limited to the scrutiny of other drivers, disregarding the role of dweller’s underlying fears, motivations and concerns. Assuming that the current ruling security model in Mexico tends to empower its commodification rather than its collective quality, this research draws upon the use of a methodological triangulation, along conceptual and contextual analyses, to test the hypothesis that insecurity plays an increasingly major role, leading citizens into the belief that acquiring a household in a controlled and surveilled community represents a counterweight against the feared environment of the open city. The focus of the analysis lies on the internal hatch of community ties as potential palliative for the provision of a sense of security, aiming to transcend the unidimensional discourse of GCs as defined mainly by their defensive apparatus. Residents’ perspectives acquired through ethnographical analyses may provide the chance to gain an essential view into a phenomenon that further consolidates without a critical study of its actual implications, not only for Mexican cities, but also for the Latin American and global contexts.
This report details the development of Horoskopos, a virtual planetarium for astrology. This project was an attempt to develop a learning tool for studying astrological concepts as connected to observational astronomy. The premise that astrology and observational astronomy were once inseparable from each other in ancient times guided the conceptualization of this tool as an interactive planetarium. The main references were existing software and applications for visualization in astrology and astronomy. Professional astrology teachers were consulted in order to understand better the state of astrological teaching and learning, as well as existing tools and practice. Horoskopos was built using the Unity3D development interface, which is based on the C# programming language. It also relied on the Swiss Ephemeris coding interface from Astrodienst. The development process was experimental and many of the needed skills were developed as needed. Usability tests were performed as new features were added to the interface. The final version of Horoskopos is fully usable, with many interactive visualization features and a defined visual identity. It was validated together with professional astrologers for its effectiveness in concept and visualization.
The aim of this study is controlling of spurious oscillations developing around discontinuous solutions of both linear and non-linear wave equations or hyperbolic partial differential equations (PDEs). The equations include both first-order and second-order (wave) hyperbolic systems. In these systems even smooth initial conditions, or smoothly varying source (load) terms could lead to discontinuous propagating solutions (fronts). For the first order hyperbolic PDEs, the concept of central high resolution schemes is integrated with the multiresolution-based adaptation to capture properly both discontinuous propagating fronts and effects of fine-scale responses on those of larger scales in the multiscale manner. This integration leads to using central high resolution schemes on non-uniform grids; however, such simulation is unstable, as the central schemes are originally developed to work properly on uniform cells/grids. Hence, the main concern is stable collaboration of central schemes and multiresoltion-based cell adapters. Regarding central schemes, the considered approaches are: 1) Second order central and central-upwind schemes; 2) Third order central schemes; 3) Third and fourth order central weighted non-oscillatory schemes (central-WENO or CWENO); 4) Piece-wise parabolic methods (PPMs) obtained with two different local stencils. For these methods, corresponding (nonlinear) stability conditions are studied and modified, as well. Based on these stability conditions several limiters are modified/developed as follows: 1) Several second-order limiters with total variation diminishing (TVD) feature, 2) Second-order uniformly high order accurate non-oscillatory (UNO) limiters, 3) Two third-order nonlinear scaling limiters, 4) Two new limiters for PPMs. Numerical results show that adaptive solvers lead to cost-effective computations (e.g., in some 1-D problems, number of adapted grid points are less than 200 points during simulations, while in the uniform-grid case, to have the same accuracy, using of 2049 points is essential). Also, in some cases, it is confirmed that fine scale responses have considerable effects on higher scales.
In numerical simulation of nonlinear first order hyperbolic systems, the two main concerns are: convergence and uniqueness. The former is important due to developing of the spurious oscillations, the numerical dispersion and the numerical dissipation. Convergence in a numerical solution does not guarantee that it is the physical/real one (the uniqueness feature). Indeed, a nonlinear systems can converge to several numerical results (which mathematically all of them are true). In this work, the convergence and uniqueness are directly studied on non-uniform grids/cells by the concepts of local numerical truncation error and numerical entropy production, respectively. Also, both of these concepts have been used for cell/grid adaptations. So, the performance of these concepts is also compared by the multiresolution-based method. Several 1-D and 2-D numerical examples are examined to confirm the efficiency of the adaptive solver. Examples involve problems with convex and non-convex fluxes. In the latter case, due to developing of complex waves, proper capturing of real answers needs more attention. For this purpose, using of method-adaptation seems to be essential (in parallel to the cell/grid adaptation). This new type of adaptation is also performed in the framework of the multiresolution analysis.
Regarding second order hyperbolic PDEs (mechanical waves), the regularization concept is used to cure artificial (numerical) oscillation effects, especially for high-gradient or discontinuous solutions. There, oscillations are removed by the regularization concept acting as a post-processor. Simulations will be performed directly on the second-order form of wave equations. It should be mentioned that it is possible to rewrite second order wave equations as a system of first-order waves, and then simulated the new system by high resolution schemes. However, this approach ends to increasing of variable numbers (especially for 3D problems).
The numerical discretization is performed by the compact finite difference (FD) formulation with desire feature; e.g., methods with spectral-like or optimized-error properties. These FD methods are developed to handle high frequency waves (such as waves near earthquake sources). The performance of several regularization approaches is studied (both theoretically and numerically); at last, a proper regularization approach controlling the Gibbs phenomenon is recommended.
At the end, some numerical results are provided to confirm efficiency of numerical solvers enhanced by the regularization concept. In this part, shock-like responses due to local and abrupt changing of physical properties, and also stress wave propagation in stochastic-like domains are studied.
In this work, the degradation performance for the photocatalytic oxidation of eight micropollutants (amisulpride, benzotriazole, candesartan, carbamazepine, diclofenac, gabapentin, methlybenzotriazole, and metoprolol) within real secondary effluent was investigated using three different reactor designs. For all reactor types, the influence of irradiation power on its reaction rate and energetic efficiency was investigated. Flat cell and batch reactor showed almost similar substance specific degradation behavior. Within the immersion rotary body reactor, benzotriazole and methylbenzotriazole showed a significantly lower degradation affinity. The flat cell reactor achieved the highest mean degradation rate, with half time values ranging from 5 to 64 min with a mean of 18 min, due to its high catalysts surface to hydraulic volume ratio. The EE/O values were calculated for all micro-pollutants as well as the mean degradation rate constant of each experimental step. The lowest substance specific energy per order (EE/O) values of 5 kWh/m3 were measured for benzotriazole within the batch reactor. The batch reactor also reached the lowest mean values (11.8–15.9 kWh/m3) followed by the flat cell reactor (21.0–37.0 kWh/m3) and immersion rotary body reactor (23.9–41.0 kWh/m3). Catalyst arrangement and irradiation power were identified as major influences on the energetic performance of the reactors. Low radiation intensities as well as the use of submerged catalyst arrangement allowed a reduction in energy demand by a factor of 3–4. A treatment according to existing treatment goals of wastewater treatment plants (80% total degradation) was achieved using the batch reactor with a calculated energy demand of 7000 Wh/m3.
The current thesis presents research about new methods of citizen participation based on digital technologies. The focus on the research lies on decentralized methods of participation where citizens take the role of co-creators. The research project first conducted a review of the literature on citizen participation, its origins and the different paradigms that have emerged over the years. The literature review also looked at the influence of technologies on participation processes and the theoretical frameworks that have emerged to understand the introduction of technologies in the context of urban development. The literature review generated the conceptual basis for the further development of the thesis.
The research begins with a survey of technology enabled participation applications that examined the roles and structures emerging due to the introduction of technology. The results showed that cities use technology mostly to control and monitor urban infrastructure and are rather reluctant to give citizens the role of co-creators. Based on these findings, three case studies were developed. Digital tools for citizen participation were conceived and introduced for each case study. The adoption and reaction of the citizens were observed using three data collection methods.
The results of the case studies showed consistently that previous participation and engagement with informal citizen participation are a determinining factor in the potential adoption of digital tools for decentralized engagement. Based on these results, the case studies proposed methods and frameworks that can be used for the conception and introduction of technologies for decentralized citizen participation.
The Finite Element Method (FEM) is widely used in engineering for solving Partial Differential Equations (PDEs) over complex geometries. To this end, it is required to provide the FEM software with a geometric model that is typically constructed in a Computer-Aided Design (CAD) software. However, FEM and CAD use different approaches for the mathematical description of the geometry. Thus, it is required to generate a mesh, which is suitable for FEM, based on the CAD model. Nonetheless, this procedure is not a trivial task and it can be time consuming. This issue becomes more significant for solving shape and topology optimization problems, which consist in evolving the geometry iteratively. Therefore, the computational cost associated to the mesh generation process is increased exponentially for this type of applications.
The main goal of this work is to investigate the integration of CAD and CAE in shape and topology optimization. To this end, numerical tools that close the gap between design and analysis are presented. The specific objectives of this work are listed below:
• Automatize the sensitivity analysis in an isogeometric framework for applications in shape optimization. Applications for linear elasticity are considered.
• A methodology is developed for providing a direct link between the CAD model and the analysis mesh. In consequence, the sensitivity analysis can be performed in terms of the design variables located in the design model.
• The last objective is to develop an isogeometric method for shape and topological optimization. This method should take advantage of using Non-Uniform Rational B-Splines (NURBS) with higher continuity as basis functions.
Isogeometric Analysis (IGA) is a framework designed to integrate the design and analysis in engineering problems. The fundamental idea of IGA is to use the same basis functions for modeling the geometry, usually NURBS, for the approximation of the solution fields. The advantage of integrating design and analysis is two-fold. First, the analysis stage is more accurate since the system of PDEs is not solved using an approximated geometry, but the exact CAD model. Moreover, providing a direct link between the design and analysis discretizations makes possible the implementation of efficient sensitivity analysis methods. Second, the computational time is significantly reduced because the mesh generation process can be avoided.
Sensitivity analysis is essential for solving optimization problems when gradient-based optimization algorithms are employed. Automatic differentiation can compute exact gradients, automatically by tracking the algebraic operations performed on the design variables. For the automation of the sensitivity analysis, an isogeometric framework is used. Here, the analysis mesh is obtained after carrying out successive refinements, while retaining the coarse geometry for the domain design. An automatic differentiation (AD) toolbox is used to perform the sensitivity analysis. The AD toolbox takes the code for computing the objective and constraint functions as input. Then, using a source code transformation approach, it outputs a code for computing the objective and constraint functions, and their sensitivities as well. The sensitivities obtained from the sensitivity propagation method are compared with analytical sensitivities, which are computed using a full isogeometric approach.
The computational efficiency of AD is comparable to that of analytical sensitivities. However, the memory requirements are larger for AD. Therefore, AD is preferable if the memory requirements are satisfied. Automatic sensitivity analysis demonstrates its practicality since it simplifies the work of engineers and designers.
Complex geometries with sharp edges and/or holes cannot easily be described with NURBS. One solution is the use of unstructured meshes. Simplex-elements (triangles and tetrahedra for two and three dimensions respectively) are particularly useful since they can automatically parameterize a wide variety of domains. In this regard, unstructured Bézier elements, commonly used in CAD, can be employed for the exact modelling of CAD boundary representations. In two dimensions, the domain enclosed by NURBS curves is parameterized with Bézier triangles. To describe exactly the boundary of a two-dimensional CAD model, the continuity of a NURBS boundary representation is reduced to C^0. Then, the control points are used to generate a triangulation such that the boundary of the domain is identical to the initial CAD boundary representation. Thus, a direct link between the design and analysis discretizations is provided and the sensitivities can be propagated to the design domain.
In three dimensions, the initial CAD boundary representation is given as a collection of NURBS surfaces that enclose a volume. Using a mesh generator (Gmsh), a tetrahedral mesh is obtained. The original surface is reconstructed by modifying the location of the control points of the tetrahedral mesh using Bézier tetrahedral elements and a point inversion algorithm. This method offers the possibility of computing the sensitivity analysis using the analysis mesh. Then, the sensitivities can be propagated into the design discretization. To reuse the mesh originally generated, a moving Bézier tetrahedral mesh approach was implemented.
A gradient-based optimization algorithm is employed together with a sensitivity propagation procedure for the shape optimization cases. The proposed shape optimization approaches are used to solve some standard benchmark problems in structural mechanics. The results obtained show that the proposed approach can compute accurate gradients and evolve the geometry towards optimal solutions. In three dimensions, the moving mesh approach results in faster convergence in terms of computational time and avoids remeshing at each optimization step.
For considering topological changes in a CAD-based framework, an isogeometric phase-field based shape and topology optimization is developed. In this case, the diffuse interface of a phase-field variable over a design domain implicitly describes the boundaries of the geometry. The design variables are the local values of the phase-field variable. The descent direction to minimize the objective function is found by using the sensitivities of the objective function with respect to the design variables. The evolution of the phase-field is determined by solving the time dependent Allen-Cahn equation.
Especially for topology optimization problems that require C^1 continuity, such as for flexoelectric structures, the isogeometric phase field method is of great advantage. NURBS can achieve the desired continuity more efficiently than the traditional employed functions. The robustness of the method is demonstrated when applied to different geometries, boundary conditions, and material configurations. The applications illustrate that compared to piezoelectricity, the electrical performance of flexoelectric microbeams is larger under bending. In contrast, the electrical power for a structure under compression becomes larger with piezoelectricity.
One of the most important renewable energy technologies used nowadays are wind power turbines. In this paper, we are interested in identifying the operating status of wind turbines, especially rotor blades, by means of multiphysical models. It is a state-of-the-art technology to test mechanical structures with ultrasonic-based methods. However, due to the density and the required high resolution, the testing is performed with high-frequency waves, which cannot penetrate the structure in depth. Therefore, there is a need to adopt techniques in the fields of multiphysical model-based inversion schemes or data-driven structural health monitoring. Before investing effort in the development of such approaches, further insights and approaches are necessary to make the techniques applicable to structures such as wind power plants (blades). Among the expected developments, further accelerations of the so-called “forward codes” for a more efficient implementation of the wave equation could be envisaged. Here, we employ electromagnetic waves for the early detection of cracks. Because in many practical situations, it is not possible to apply techniques from tomography (characterized by multiple sources and sensor pairs), we focus here on the question of whether the existence of cracks can be determined by using only one source for the sent waves.
Object-Oriented Damage Information Modeling Concepts and Implementation for Bridge Inspection
(2022)
Bridges are designed to last for more than 50 years and consume up to 50% of their life-cycle costs during their operation phase. Several inspections and assessment actions are executed during this period. Bridge and damage information must be gathered, digitized, and exchanged between different stakeholders. Currently, the inspection and assessment practices rely on paper-based data collection and exchange, which is time-consuming and error-prone, and leads to loss of information. Storing and exchanging damage and building information in a digital format may lower costs and errors during inspection and assessment and support future needs, for example, immediate simulations regarding performance assessment, automated maintenance planning, and mixed reality inspections. This study focused on the concept for modeling damage information to support bridge reviews and structural analysis. Starting from the definition of multiple use cases and related requirements, the data model for damage information is defined independently from the subsequent implementation. In the next step, the implementation via an established standard is explained. Functional tests aim to identify problems in the concept and implementation. To show the capability of the final model, two example use cases are illustrated: the inspection review of the entire bridge and a finite-element analysis of a single component. Main results are the definition of necessary damage data, an object-oriented damage model, which supports multiple use cases, and the implementation of the model in a standard. Furthermore, the tests have shown that the standard is suitable to deliver damage information; however, several software programs lack proper implementation of the standard.
Reine Calciumsulfatbindemittel weisen eine hohe Löslichkeit auf. Feuchteinwirkung führt zudem zu starken Festigkeitsverlusten. Aus diesem Grund werden diese Bindemittel ausschließlich für Baustoffe und -produkte im Innenbereich ohne permanenten Feuchtebeanspruchung eingesetzt. Eine Möglichkeit, die Feuchtebeständigkeit zu erhöhen, ist die Beimischung puzzolanischer und zementärer Komponenten. Diese Mischsysteme werden Gips-Zement-Puzzolan-Bindemittel (kurz: GZPB) genannt.
Mischungen aus Calciumsulfaten und Portlandzementen allein sind aufgrund der treibenden Ettringitbildung nicht raumbeständig. Durch die Zugabe von puzzolanischen Stoffen können aber Bedingungen im hydratisierenden System geschaffen werden, welche eine rissfreie Erhärtung ermöglichen. Hierfür ist eine exakte Rezeptierung der GZPB notwendig, um die GZPB-typischen, ettringitbedingten Dehnungen zeitlich zu begrenzen. Insbesondere bei alumosilikatischen Puzzolanen treten während der Hydratation gegenüber rein silikatischen Puzzolanen deutlich höhere Expansionen auf, wodurch die Gefahr einer potenziellen Rissbildung steigt. Für die Erstellung geeigneter GZPB-Zusammensetzungen bedarf es daher einer Methodik, um raumbeständig erhärtende Systeme sicher von destruktiven Mischungen unterscheiden zu können.
Sowohl für die Rezeptierung als auch für die Anwendung der GZPB existieren in Deutschland keinerlei Normen. Darüber hinaus sind die Hydratationsvorgänge sowie die entstehenden Produkte nicht konsistent beschrieben. Auch auf die Besonderheiten der GZPB mit alumosilikatischen Puzzolanen wird in der Literatur nur unzureichend eingegangen.
Ziel war es daher, ein grundlegendes Verständnis der Hydratation sowie eine sichere Methodik zur Rezeptierung raumbeständig und rissfrei erhärtender GZPB, insbesondere in Hinblick auf die Verwendung alumosilikatischer Puzzolane, zu erarbeiten. Darüber hinaus sollte systematisch der Einfluss der Einzelkomponenten auf Hydratation und Eigenschaften dieser Bindemittelsysteme untersucht werden. Dies soll ermöglichen, die GZPB für ein breites Anwendungsspektrum als Bindemittel zu etablieren, und somit vorteilhafte Eigenschaften der Calciumsulfate (geringe Schwindneigung, geringe CO2-Emission etc.) mit der Leistungs-fähigkeit von Zementen (Wasserbeständigkeit, Festigkeit, Dauerhaftigkeit etc.) zu verbinden.
Als Ausgangsstoffe der Untersuchungen zu den GZPB wurden Stuckgips und Alpha-Halbhydrat als Calciumsulfatbindemittel in unterschiedlichen Anteilen im GZPB verwendet. Die Puzzolan-Zement-Verhältnisse wurden ebenfalls variiert. Als Puzzolan kam für den Großteil der Untersuchungen ein alumosilikatisches Metakaolin zum Einsatz. Als kalkspendende Komponente diente ein reiner Portlandzement.
Das Untersuchungsprogramm gliederte sich in 4 Teile. Zuerst wurde anhand von CaO- und pH-Wert-Messungen in Suspensionen sowie dem Längenänderungsverhalten von Bindemittelleimen verschiedener Zusammensetzungen eine Vorauswahl geeigneter GZPB-Rezepturen ermittelt. Danach erfolgten, ebenfalls an Bindemittelleimen, Untersuchungen zu den Eigenschaften der als geeignet eingeschätzten GZPB-Mischungen. Hierzu zählten Langzeitbetrachtungen zur rissfreien Erhärtung bei unterschiedlichen Umgebungsbedingungen sowie die Festigkeitsentwicklung im trockenen und feuchten Zustand. Im nächsten Schritt wurde anhand zweier exemplarischer GZPB-Zusammensetzungen (mit silikatischen und alumosilikatischen Puzzolan) die prinzipiell mögliche Phasenzusammensetzung unter Variation des Puzzolan-Zement-Verhältnisses (P/Z-Verhältnis) und des Calciumsulfatanteils im thermodynamischen Gleichgewichtszustand berechnet. Hier wurde im Besonderen auf Unterschiede der silikatischen und alumosilikatischen Puzzolane eingegangen. Im letzten Teil der Untersuchungen wurden die Hydratationskinetik der GZPB sowie die Gefügeentwicklung näher betrachtet. Hierfür wurden die Porenlösungen chemisch analysiert und Sättigungsindizes berechnet, sowie elektronenmikropische, porosimetrische und röntgenografische Untersuchungen durchgeführt. Abschließend wurden die Ergebnisse gesamtheitlich interpretiert, da die Ergebnisse der einzelnen Untersuchungsprogramme miteinander in Wechselwirkung stehen.
Als hauptsächliche Hydratationsprodukte wurden Calciumsulfat-Dihydrat, Ettringit und
C-(A)-S-H-Phasen ermittelt, deren Anteile im GZPB neben dem Calciumsulfatanteil und dem Puzzolan-Zement-Verhältnis auch deutlich vom Wasserangebot und der Gefügeentwicklung abhängen. Bei Verwendung von alumosilikatischen Puzzolans kommt es wahrscheinlich zur teilweisen Substitution des Siliciums durch Aluminium in den C-S-H-Phasen. Dies erscheint aufgrund des Nachweises der für diese Phasen typischen, folienartigen Morphologie wahrscheinlich. Portlandit wurde in raumbeständigen GZPB-Systemen nur zu sehr frühen Zeitpunkten in geringen Mengen gefunden.
In den Untersuchungen konnte ein Teil der in der Literatur beschriebenen, prinzipiellen Hydratationsabläufe bestätigt werden. Bei Verwendung von Halbhydrat als Calciumsulfatkomponente entsteht zuerst Dihydrat und bildet die Primärstruktur der GZPB. In dieses existierende Grundgefüge kristallisieren dann das Ettringit und die C-(A)-S-H-Phasen. In den GZPB sorgen entgegen der Beschreibungen in der Literatur nicht ausschließlich die
C-(A)-S-H-Phasen zur Verbesserung der Feuchtebeständigkeit und der Erhöhung des Festigkeitsniveaus, sondern auch das Ettringit. Beide Phasen überwachsen im zeitlichen Verlauf der Hydratation die Dihydratkristalle in der Matrix und hüllen diese – je nach Calciumsulfatanteil im GZPB – teilweise oder vollständig ein. Diese Umhüllung sowie die starke Gefügeverdichtung durch die C-(A)-S-H-Phasen und das Ettringit bedingen, dass ein lösender Angriff durch Wasser erschwert oder gar verhindert wird. Gleichzeitig wird die Gleitfähigkeit an den Kontaktstellen der Dihydratkristalle verringert.
Eine rissfreie und raumbeständige Erhärtung ist für die gefahrlose Anwendung eines GZPB-Systems essentiell. Hierfür ist die Kinetik der Ettringitbildung von elementarer Bedeutung. Die gebildete Ettringitmenge spielt nur eine untergeordnete Rolle. Selbst ausgeprägte, ettringitbedingte Dehnungen und hohe sich bildende Mengen führen zu frühen Zeitpunkten, wenn die Dihydratkristalle noch leicht gegeneinander verschiebbar sind, zu keinen Schäden. Bleibt die Übersättigung bezüglich Ettringit und somit auch der Kristallisationsdruck allerdings über einen langen Zeitraum hoch, genügen bereits geringe Ettringitmengen, um das sich stetig verfestigende Gefüge stark zu schädigen.
Die für die raumbeständige Erhärtung der GZPB notwendige, schnelle Abnahme der Ettringitübersättigung wird hauptsächlich durch die Reaktivität des Puzzolans beeinflusst. Die puzzolanische Reaktion führt zur Bindung des aus dem Zement stammenden Calciumhydroxid durch die Bildung von C-(A)-S-H-Phasen und Ettringit. Hierdurch sinkt die Calcium- und Hydroxidionenkonzentration in der Porenlösung im Verlauf der Hydratation, wodurch auch die Übersättigung bezüglich Ettringit abnimmt. Je höher die Reaktivität des Puzzolans ist, desto schneller sinkt der Sättigungsindex des Ettringits und somit auch der Kristallisationsdruck. Nach Unterschreiten eines noch näher zu klärendem Grenzwert der Übersättigung stagnieren die Dehnungen. Das Ettringit kristallisiert bzw. wächst nun bevorzugt in den Poren ohne eine weitere, äußere Volumenzunahme zu verursachen.
Um eine schadensfreie Erhärtung des GZPB zu gewährleisten, muss gerade in der frühen Phase der Hydratation ein ausreichendes Wasserangebot gewährleistet werden, so dass die Ettringitbildung möglichst vollständig ablaufen kann. Andernfalls kann es bei einer Wiederbefeuchtung zur Reaktivierung der Ettringitbildung kommen, was im eingebauten Zustand Schäden verursachen kann. Die Gewährleistung eines ausreichenden Wasserangebots ist im GZPB-System nicht unproblematisch. In Abhängigkeit der GZPB-Zusammensetzung können sich große Ettringitmengen bilden, die einen sehr hohen Wasserbedarf aufweisen. Deshalb kann es, je nach verwendeten Wasser-Bindemittel-Wert, im Bindemittelleim zu einem Wassermangel kommen, welcher die weitere Hydratation verlangsamt bzw. komplett verhindert. Zudem können GZPB-Systeme teils sehr dichte Gefüge ausbilden, wodurch der Wassertransport zum Reaktionsort des Ettringits zusätzlich behindert wird.
Die Konzeption raumbeständiger GZPB-Systeme muss anhand mehrerer aufeinander aufbauender Untersuchungen erfolgen. Zur Vorauswahl geeigneter Puzzolan-Zementverhältnisse eignen sich die Messungen der CaO-Konzentration und des pH-Wertes in Suspensionen. Als alleinige Beurteilungsgrundlage reicht dies allerdings nicht aus. Zusätzlich muss das Längenänderungs-verhalten beurteilt werden. Raumbeständige Mischungen mit alumosilikatischen Puzzolanen zeigen zu frühen Zeitpunkten starke Dehnungen, welche dann abrupt stagnieren. Stetige – auch geringe – Dehnungen weisen auf eine destruktive Zusammensetzung hin.
Mit diesem mehrstufigen Vorgehen können raumbeständige, stabile GZPB-Systeme konzipiert werden, so dass die Zielstellung der Arbeit erreicht wurde und ein sicherer praktischer Einsatz dieser Bindemittelart gewährleistet werden kann.
Die Europatournee des Indischen Menaka-Balletts von 1936-38 ist der Ausgangspunkt dieser archivologischen Navigation entlang der Spuren indischer KünstlerInnen in Europa. In einer breit angelegten Archivrecherche wurden dazu Dokumente, Fundstücke, orale Erinnerungen und ethnografische Beobachtungen aus dem Kontext der Menaka-Tournee durch das nationalsozialistische Deutschland zusammengetragen.
Das Buch beschreibt den Rekonstruktionsprozess eines bedeutsamen Projekts der indischen Tanzmoderne. Es verfolgt dabei eine Methode, mit der sich die fragmentierten Dokumente des Medienereignisses als Spur lesen lassen und nutzt eine künstlerisch-forschende Involvierung in gegenwärtige Erinnerungspolitiken, in welche die verflochtenen Strukturen der künstlerischen Avantgarde zwischen Kolkata, Mumbai und Berlin hineinreichen. Die Spur des Menaka-Ballett erweist sich dabei als Teil weitreichender ideologischer, tänzerischer, musikalischer, filmischer und literarischer Strömungen, die auch in gegenwärtigen kulturellen Bestimmungen fortwirken.
Fotografien, Zeitungsberichte, Film- und Tonaufnahmen, Briefe und persönliche Erinnerungstücke erzählen davon, wie sich, vor dem Hintergrund der im antikolonialen Aufbruch befindlichen Kulturreform in Indien, und der nationsozialistisch-völkischen Kulturpolitik in Deutschland, die Tänzerinnen und Musiker der indischen Ballettgruppe und die deutsche Öffentlichkeit im gegenseitigen Spiegel betrachteten, während die Vorzeichen des kommenden Krieges immer deutlicher wurden.
In this thesis, a new approach is developed for applications of shape optimization on the time harmonic wave propagation (Helmholtz equation) for acoustic problems. This approach is introduced for different dimensional problems: 2D, 3D axi-symmetric and fully 3D problems. The boundary element method (BEM) is coupled with the isogeometric analysis (IGA) forming the so-called (IGABEM) which speeds up meshing and gives higher accuracy in comparison with standard BEM. BEM is superior for handling unbounded domains by modeling only the inner boundaries and avoiding the truncation error, present in the finite element method (FEM) since BEM solutions satisfy the Sommerfeld radiation condition automatically. Moreover, BEM reduces the space dimension by one from a volumetric three-dimensional problem to a surface two-dimensional problem, or from a surface two-dimensional problem to a perimeter one-dimensional problem. Non-uniform rational B-splines basis functions (NURBS) are used in an isogeometric setting to describe both the CAD geometries and the physical fields.
IGABEM is coupled with one of the gradient-free optimization methods, the Particle Swarm Optimization (PSO) for structural shape optimization problems. PSO is a straightforward method since it does not require any sensitivity analysis but it has some trade-offs with regard to the computational cost. Coupling IGA with optimization problems enables the NURBS basis functions to represent the three models: shape design, analysis and optimization models, by a definition of a set of control points to be the control variables and the optimization parameters as well which enables an easy transition between the three models.
Acoustic shape optimization for various frequencies in different mediums is performed with PSO and the results are compared with the benchmark solutions from the literature for different dimensional problems proving the efficiency of the proposed approach with the following remarks:
- In 2D problems, two BEM methods are used: the conventional isogeometric boundary element method (IGABEM) and the eXtended IGABEM (XIBEM) enriched with the partition-of-unity expansion using a set of plane waves, where the results are generally in good agreement with the linterature with some computation advantage to XIBEM which allows coarser meshes.
-In 3D axi-symmetric problems, the three-dimensional problem is simplified in BEM from a surface integral to a combination of two 1D integrals. The first is the line integral similar to a two-dimensional BEM problem. The second integral is performed over the angle of revolution. The discretization is applied only to the former integration. This leads to significant computational savings and, consequently, better treatment for higher frequencies over the full three-dimensional models.
- In fully 3D problems, a detailed comparison between two BEM methods: the conventional boundary integral equation (CBIE) and Burton-Miller (BM) is provided including the computational cost. The proposed models are enhanced with a modified collocation scheme with offsets to Greville abscissae to avoid placing collocation points at the corners. Placing collocation points on smooth surface enables accurate evaluation of normals for BM formulation in addition to straightforward prediction of jump-terms and avoids singularities in $\mathcal{O} (1/r)$ integrals eliminating the need for polar integration. Furthermore, no additional special treatment is required for the hyper-singular integral while collocating on highly distorted elements, such as those containing sphere poles. The obtained results indicate that, CBIE with PSO is a feasible alternative (except for a small number of fictitious frequencies) which is easier to implement. Furthermore, BM presents an outstanding treatment of the complicated geometry of mufflers with internal extended inlet/outlet tube as an interior 3D Helmholtz acoustic problem instead of using mixed or dual BEM.
Quantification of cracks in concrete thin sections considering current methods of image analysis
(2022)
Image analysis is used in this work to quantify cracks in concrete thin sections via modern image processing. Thin sections were impregnated with a yellow epoxy resin, to increase the contrast between voids and other phases of the concrete. By the means of different steps of pre-processing, machine learning and python scripts, cracks can be quantified in an area of up to 40 cm2. As a result, the crack area, lengths and widths were estimated automatically within a single workflow. Crack patterns caused by freeze-thaw damages were investigated. To compare the inner degradation of the investigated thin sections, the crack density was used. Cracks in the thin sections were measured manually in two different ways for validation of the automatic determined results. On the one hand, the presented work shows that the width of cracks can be determined pixelwise, thus providing the plot of a width distribution. On the other hand, the automatically measured crack length differs in comparison to the manually measured ones.