Filtern
Dokumenttyp
- Artikel (Wissenschaftlicher) (35)
- Dissertation (20)
- Buch (Monographie) (6)
- Bachelorarbeit (3)
- Konferenzveröffentlichung (3)
- Periodikum (2)
- Arbeitspapier (1)
Institut
- Institut für Strukturmechanik (ISM) (18)
- Professur Stochastik und Optimierung (11)
- Junior-Professur Computational Architecture (7)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (6)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (6)
- F. A. Finger-Institut für Baustoffkunde (FIB) (5)
- Professur Denkmalpflege und Baugeschichte (4)
- An-Institute (2)
- Materialforschungs- und -prüfanstalt an der Bauhaus-Universität (2)
- Professur Baubetrieb und Bauverfahren (2)
Schlagworte
- Angewandte Mathematik (11)
- Stochastik (11)
- Strukturmechanik (11)
- Architektur (2)
- BIM (2)
- Building Information Modeling (2)
- Controlling (2)
- Entscheidungsunterstützung (2)
- Erdbau (2)
- Film (2)
Erscheinungsjahr
- 2016 (70) (entfernen)
In this paper we introduce LUCI, a Lightweight Urban Calculation Interchange system, designed to bring the advantages of calculation and content co-ordination system to small planning and design groups by the means of an open source middle-ware. The middle-ware focuses on problems typical to urban planning and therefore features a geo-data repository as well as a job runtime administration, to coordinate simulation models and its multiple views. The described system architecture is accompanied by two exemplary use cases, that have been used to test and further develop our concepts and implementations.
Cyber security has become a major concern for users and businesses alike. Cyberstalking and harassment have been identified as a growing anti-social problem. Besides detecting cyberstalking and harassment, there is the need to gather digital evidence, often by the victim. To this end, we provide an overview of and discuss relevant technological means, in particular coming from text analytics as well as machine learning, that are capable to address the above challenges. We present a framework for the detection of text-based cyberstalking and the role and challenges of some core techniques such as author identification, text classification and personalisation. We then discuss PAN, a network and evaluation initiative that focusses on digital text forensics, in particular author identification.
Paraffin Nanocomposites for Heat Management of Lithium-Ion Batteries: A Computational Investigation
(2016)
Lithium-ion (Li-ion) batteries are currently considered as vital components for advances in mobile technologies such as those in communications and transport. Nonetheless, Li-ion batteries suffer from temperature rises which sometimes lead to operational damages or may even cause fire. An appropriate solution to control the temperature changes during the operation of Li-ion batteries is to embed batteries inside a paraffin matrix to absorb and dissipate heat. In the present work, we aimed to investigate the possibility of making paraffin nanocomposites for better heat management of a Li-ion battery pack. To fulfill this aim, heat generation during a battery charging/discharging cycles was simulated using Newman’s well established electrochemical pseudo-2D model. We couple this model to a 3D heat transfer model to predict the temperature evolution during the battery operation. In the later model, we considered different paraffin nanocomposites structures made by the addition of graphene, carbon nanotubes, and fullerene by assuming the same thermal conductivity for all fillers. This way, our results mainly correlate with the geometry of the fillers. Our results assess the degree of enhancement in heat dissipation of Li-ion batteries through the use of paraffin nanocomposites. Our results may be used as a guide for experimental set-ups to improve the heat management of Li-ion batteries.
Die Bauinformatik ist eine Säule der modernen Bau- und Umweltingenieurwissenschaften und befasst sich mit der Erforschung grundlegender informatorischer Methoden sowie mit der Anwendung und Weiterentwicklung der Informationswissenschaften im Bau- und Umweltbereich. Der Arbeitskreis Bauinformatik konstituiert sich aus Wissenschaftlern, die an Universitäten im deutschsprachigen Raum auf dem Fachgebiet Bauinformatik lehren und forschen. Ausgehend vom erreichten Entwicklungsstand der Bauinformatik skizziert dieses Positionspapier die Aufgaben des Arbeitskreises und formuliert eine Grundlage für eine abgestimmte Weiterentwicklung an den deutschsprachigen Universitäten.
In vielen öffentlichen Gebäuden besteht ein hohes wirtschaftliches Einsparpotenzial bei den relevanten Energieträgern Wärme und Strom. Projekte zur energetischen Optimierungen refinanzieren sich häufig nach wenigen Jahren. Die notwenigen Investitionsmittel stehen jedoch nur begrenzt zur Verfügung. Zielgerichtete Analysen und Potenzialschätzungen sind erforderlich, um eine Priorisierung optionaler Maßnahmen zu erreichen. Die Studie zeigt anhand eines öffentlichen Portfolios notwendige Untersuchungsschritte auf. Die Einzelpotenziale werden über geeignete Benchmarks ermittelt. Auf Portfolioebene werden u. a. spezifische Potenzial-Matrizen genutzt. Die kennzahlenbasierte Priorisierung von Maßnahmen ist umso wichtiger, je stärker das Potenzial auf wenige Objekte konzentriert ist.
In Zeiten volatiler Immobilienmärkte und einer hohen Wettbewerbsintensität sind leistungsfähige Systeme der Analyse und Entscheidungsunterstützung unverzichtbar. Entscheidungen zu Investitionsstrategien und Einzelinvestitionen basieren zumeist auf mehreren entscheidungsrelevanten Kriterien. Unterschiedliche immobilienwirtschaftliche Entscheidungsalternativen können dabei durchaus Kriterienausprägungen aufweisen, die eine bestimmte Alternative nicht als stets besser bzw. stets schlechter ausweisen. Klassische finanzwirtschaftliche Modelle oder verbreitete qualitative Verfahren wie das Scoring können die gegebene Komplexität meist nicht angemessen berücksichtigen. Eine Weiterentwicklung immobilienwirtschaftlicher Entscheidungsmodelle ist durch die Übertragung und Spezifizierung multikriterieller Verfahren der Entscheidungsunterstützung möglich. Speziell die Untergruppe des Outranking beschäftigt sich mit der schrittweisen Strukturierung, Ordnung und Priorisierung von komplexen Auswahlalternativen. Als spezifische immobilienwirtschaftliche Fragestellung dient hier die Auswahl und Priorisierung von Zielmärkten im taktischen Portfoliomanagement eines institutionellen Immobilienportfoliosmit internationaler Ausrichtung. Die Formalisierung des Entscheidungsproblems „Priorisierung von Zielmärkten“ erfolgt mit dem ELECTRE-Verfahren.
Die thermodynamischen Grundlagen der Hydratation von Hüttensand als Hauptbestandteil von Zementen werden erforscht. Hierbei werden thermodynamische Bildungs- und Reaktionsdaten experimentell bestimmt und berechnet. Darüber hinaus wird der Prozess der Feststoffauflösung von Hüttensand in wässrigen Lösungen untersucht. Lösungs- und Fällungsprozesse werden unter verschiedenen Konditionen gemessen, ausgewertet und diskutiert. Die Ergebnisse werden im weiteren Verlauf zur Bestimmung der Hydratationsgrades in Pasten sowie zum besseren Verständnis in der Wechselwirkung zwischen Hüttensanden und Mahlhilfsstoffen genutzt und angewandt.
To assess the safety impact of auxiliary lanes at downstream locations of U-turns, the Traffic Conflict Technique was used. On the basis of the installed components at those locations, four types of U-turns were identified: those without any auxiliary lane, those with an acceleration lane, those with outer widening, and those with both an acceleration lane and outer widening. The available crash data is unreliable, therefore to assess the level of road safety, Conflict Indexes were formulated to put more emphasis on severe crashes than on slight ones by using two types of weighting coefficients. The first coefficient was based on the subjective assessment of the seriousness of the conflict situation and the second was based on the relative speed and angle between conflicting streams. A comparatively higher Conflict Index value represents a lower level of road safety. According to the results, a lower level of road safety occurs if two components apply or if a location is without any auxiliary lane. The highest level of road safety occurs if the layout includes only a single component, either an acceleration lane or outer widening.
Schwerpunkt Medien der Natur
(2016)
Der Schwerpunkt der vorliegenden Ausgabe der ZMK – Medien der Natur – scheint den Medienbegriff aus den Grenzen herauslösen zu wollen, die seine konventionelle Semantik ihm auferlegt hat: aus den Grenzen der Kultur und der Geschichte bzw. der Kulturgeschichte. Man greife zu einer beliebigen älteren oder neueren Mediengeschichte – mag sie mit der Feuertelegraphie in Aischylos’ Agamemnon oder mit den Höhlenmalereien von Lascaux beginnen, eins steht auf jeden Fall fest: Medien sind technische Apparaturen und Installationen, und das heißt von Menschen geschaffene Artefakte, Zeugnisse der menschlichen Kultur. Weder enthalten handelsübliche Mediengeschichten die Beschreibung der Genexprimierung, obwohl Molekularbiologen sich dabei eines explizit medientechnischen Vokabulars wie cut-and-paste oder copy-and-paste bedienen, noch feiern sie die evolutionären Errungenschaften der Tierwelt in Sachen Medientechnik. Dabei ist der Zeichenaustausch zwischen Tieren, der Singvögel etwa oder der in Schwärmen und Völkern lebenden Tiere wie der Bienen, Ameisen und Fische schon lange bekannt und bewundert. In bestimmten Fällen ist der Stand der signal intelligence der Tiere von den Menschen aber auch erst sehr spät, während des Zweiten Weltkriegs, eingeholt worden. Motten aus der Familie der Arctiidae zum Beispiel senden ultrasonische Impulse aus, wenn sie insektivore Fledermäuse detektieren. Die die Motte verfolgende Fledermaus empfängt zwischen den Echos ihres von der Motte reflektierten eigenen Signals die von der Motte gesendeten Signale, und schnappt mithin nach einem akustischen Simulacrum der Motte auf halbem Wege zwischen sich und der eigentlichen Beute. Immerhin hat Michel Serres mit dem Parasiten ein aus der Medientheorie nicht mehr wegzudenkendes Konzept geschaffen – und Parasiten sind auch im biologischen Sinne, etwa als Bakterien, in ersten Ansätzen zum Thema der kulturwissenschaftlichen Medienforschung geworden. Die Operationen der Parasiten können durchaus für die Medienforschung anschluss- und ausbaufähig werden, wie etwa im Konzept des Zwischenwirts. Der Egel Leucochloridium paradoxum zum Beispiel, dessen endlicher Wirt Insekten fressende Vögel sind, muss seinen Zwischenwirt, eine Schnecke, auf die insektivore Vögel keinen Appetit haben, optisch in eine Raupe verwandeln (indem er sich in die Augenfühler der Schnecke schiebt), um an sein Ziel (den Vogelmagen) zu kommen.
Schwerpunkt Verschwinden
(2016)
Warum, so fragt klassischerweise die Ontologie, ist überhaupt etwas und nicht vielmehr nichts? Die dieser Frage zu Grunde liegende Dichotomie von etwas und nichts, Sein und Nichtsein, ist aber selbst voraussetzungsreich und keineswegs zwingend selbstverständlich. Sie ist schon als Frage selbst etwas, das auch nicht sein könnte. Und von dieser Möglichkeit ist schon häufiger Gebrauch gemacht worden. Die scharfe Dichotomie von Sein und Nichtsein ist in der Antike etwa vom Atomismus Demokrits und Epikurs, vom Heraklitismus und den Eleaten, in der Moderne dann unter anderem von Lebenswissenschaften, Vitalismus, Historischem Materialismus, Phänomenologie und Ästhetik unterlaufen worden. Diese und andere Sichtweisen ersetzen die Alternative von Sein und Nichtsein durch die Frage nach dem Werden und Gewordensein, nach den Erscheinungsweisen und dem Erscheinen, nach der Produktion und dem Gemachtsein dessen, was ist (oder nicht ist). Damit öffnen sie das Feld für eine nachfolgende Umstellung der ontologischen Frage: Wie kommt das, was ist, zu Stande, wie ist es zum Sein gelangt, geworden, verfertigt, wie und wodurch zur Erscheinung gekommen? Gerade die letztgenannte Wendung bringt dann ganz unverstellt Medien und Medientechniken und deren Handhabung und Verfügung zur Sprache. Medien als Werkzeuge des Eintretens, Erscheinens oder Erscheinenlassens von etwas zu begreifen, ist demnach eine gängige und überzeugende Konzeption. Ebenso kann das Medium auch das Material sein, in dem sich das Eintreten und Heranbilden vollzieht und das an diesen Prozessen noch stets Anteil hat und ihnen mitwirkt.
Das Erzeugen räumlicher Konfigurationen ist eine zentrale Aufgabe im architektonischen bzw. städtebaulichen Entwurfsprozess und hat zum Ziel, eine für Menschen angenehme Umwelt zu schaffen. Der Geometrie der entstehenden Räume kommt hierbei eine zentrale Rolle zu, da sie einen großen Einfluss auf das Empfinden und Verhalten der Menschen ausübt und nur noch mit großem Aufwand verändert werden kann, wenn sie einmal gebaut wurde. Die meisten Entscheidungen zur Festlegung der Geometrie von Räumen werden während eines sehr kurzen Zeitraums (Entwurfsphase) getroffen. Fehlentscheidungen die in dieser Phase getroffen werden haben langfristige Auswirkungen auf das Leben von Menschen, und damit auch Konsequenzen auf ökonomische und ökologische Aspekte.
Mittels computerbasierten Layoutsystemen lässt sich der Entwurf räumlicher Konfigurationen sinnvoll unterstützen, da sie es ermöglichen, in kürzester Zeit eine große Anzahl an Varianten zu erzeugen und zu überprüfen. Daraus ergeben sich zwei Vorteile. Erstens kann die große Menge an Varianten dazu beitragen, bessere Lösungen zu finden. Zweitens kann das Formalisieren von Bewertungskriterien zu einer größeren Objektivität und Transparenz bei der Lösungsfindung führen. Um den Entwurf räumlicher Konfigurationen optimal zu unterstützen, muss ein Layoutsystem in der Lage sein, ein möglichst großes Spektrum an Grundrissvarianten zu erzeugen (Vielfalt); und zahlreiche Möglichkeiten und Detaillierungsstufen zur Problembeschreibung (Flexibilität), sowie Mittel anzubieten, mit denen sich die Anforderungen an die räumliche Konfiguration adäquat beschreiben lassen (Relevanz). Bezüglich Letzterem spielen wahrnehmungs- und nutzungsbezogene Kriterien (wie z. B. Grad an Privatheit, Gefühl von Sicherheit, Raumwirkung, Orientierbarkeit, Potenzial zu sozialer Interaktion) eine wichtige Rolle.
Die bislang entwickelten Layoutsysteme weisen hinsichtlich Vielfalt, Flexibilität und Relevanz wesentliche Beschränkungen auf, welche auf eine ungeeignete Methode zur Repräsentation von Räumen zurückzuführen sind. Die in einem Layoutsystem verwendeten Raumrepräsentationsmethoden bestimmen die Möglichkeiten zur Formerzeugung und Problembeschreibung wesentlich. Sichtbarkeitsbasierte Raumrepräsentationen (Sichtfelder, Sichtachsen, Konvexe Räume) eignen sich in besonderer Weise zur Abbildung von Räumen in Layoutsystemen, da sie einerseits ein umfangreiches Repertoire zur Verfügung stellen, um räumliche Konfigurationen hinsichtlich wahrnehmungs- und nutzungsbezogener Kriterien zu beschreiben. Andererseits lassen sie sich vollständig aus der Geometrie der begrenzenden Oberflächen ableiten und sind nicht an bestimmte zur Formerzeugung verwendete geometrische Objekte gebunden.
In der vorliegenden Arbeit wird ein Layoutsystem entwickelt, welches auf diesen Raumrepräsentationen basiert. Es wird ein Evaluationsmechanismus (EM) entwickelt, welcher es ermöglicht, beliebige zweidimensionale räumliche Konfigurationen hinsichtlich wahrnehmungs- und nutzungsrelevanter Kriterien zu bewerten. Hierzu wurde eine Methodik entwickelt, die es ermöglicht automatisch Raumbereiche (O-Spaces und P-Spaces) zu identifizieren, welche bestimmte Eigenschaften haben (z.B. sichtbare Fläche, Kompaktheit des Sichtfeldes, Tageslicht) und bestimmte Relationen zueinander (wie gegenseitige Sichtbarkeit, visuelle und physische Distanz) aufweisen. Der EM wurde mit Generierungsmechanismen (GM) gekoppelt, um zu prüfen, ob dieser sich eignet, um in großen Variantenräumen nach geeigneten räumlichen Konfigurationen zu suchen. Die Ergebnisse dieser Experimente zeigen, dass die entwickelte Methodik einen vielversprechenden Ansatz zur automatisierten Erzeugung von räumlichen Konfigurationen darstellt: Erstens ist der EM vollständig vom GM getrennt, wodurch es möglich ist, verschiedene GM in einem Entwurfssystem zu verwenden und somit den Variantenraum zu vergrößern (Vielfalt). Zweitens erlaubt der EM die Anforderungen an eine räumliche Konfiguration flexibel zu beschreiben (unterschiedliche Maßstäbe, unterschiedlicher Detaillierungsgrad). Letztlich erlauben die verwendeten Repräsentationsmethoden eine Problembeschreibung vorzunehmen, die stark an der Wirkung des Raumes auf den Menschen orientiert ist (Relevanz).
Die in der Arbeit entwickelte Methodik leistet einen wichtigen Beitrag zur Verbesserung evidenzbasierter Entwurfsprozesse, da sie eine Brücke zwischen der nutzerorientierten Bewertung von räumlichen Konfigurationen und deren Erzeugung schlägt.
Die Ph.D.-Arbeit Soziales Grafikdesign – eine Frage der Haltung hinterfragt den Einfluss und die Wirkungsmacht, den visuelle Kommunikationsgestaltung auf den Betrachter und im weiteren Sinne auf die Gesellschaft im Ganzen haben können. Aufbauend auf den Erkenntnissen über die Wirkungsmacht wird untersucht, wie eine bewusste und sozial verantwortliche Haltung im Grafikdesign aussehen könnte.
Viele Grafikdesigner sind in der Werbebranche tätig und haben den Auftrag, ganz bewusst manipulativ und wirkungsstark Informationen visuell zu übersetzen, um den Betrachter zu einer Handlungsfolge zu animieren. Die bewusste Reflexion der eigenen Rolle als Designer in diesem Prozess führt immer wieder zu den Fragen nach der Verantwortlichkeit des Gestalters und auch dazu, wie der Gestalter die Potenziale der Kommunikationsgestaltung in anderen Bereichen, wie z. B. in städtischen Problemsituationen, für ein soziales Miteinander einsetzen kann.
In the Space Syntax community, the standard tool for computing all kinds of spatial graph network measures is depthmapX (Turner, 2004; Varoudis, 2012). The process of evaluating many design variants of networks is relatively complicated, since they need to be drawn in a separated CAD system, exported and imported in depthmapX via dxf file format. This procedure disables a continuous integration into a design process. Furthermore, the standalone character of depthmapX makes it impossible to use its network centrality calculation for optimization processes. To overcome this limitations, we present in this paper the first steps of experimenting with a Grasshopper component (reference omitted until final version) that can access the functions of depthmapX and integrate them into Grasshopper/Rhino3D. Here the component is implemented in a way that it can be used directly for an evolutionary algorithm (EA) implemented in a Python scripting component in Grasshopper
In der Arbeit wurde eine Methode für eine kulturübergreifende Vergleichsstudie zwischen China und dem Westen erarbeitet. Diese Methode ermöglicht Unternehmensentwicklung in China aus dem eignen historischen Zusammenhang zu verstehen, statt nur aus einem rein theoretischen Blickwinkel. Weil heutige wissenschaftliche Theorien meist aus der westlichen Kultur stammen und mit Wertvorstellungen sowie mit Begriffen aus dem westlichen Kulturkreis verbunden sind, müssen sie im historischen Kontext des westlichen Kulturkreises betrachtet werden.
Im ersten Teil der Arbeit wird der westliche moderne Staat als Untersuchungsbegriff herangezogen, seine Entstehungsbedingungen und seine Verwendungsart und -weise, besonders wie er die ökonomische Theorie und die Praxis im Westen beeinflusst, dabei spielt das moderne Staatsprinzip eine wichtige Rolle. Die Neue Institutionenökonomik dient als theoretischer Referenzrahmen für diese Arbeit. Mittels einer theoretischen Erweiterung mit dem westlichen modernen Staatsverständnis werden wichtige westliche konstitutionelle Institutionen analysiert, da sie die Handlungsrechte und -pflichten der Bürger sowie die Bildung der kapitalistischen Unternehmung beeinflussen.
Im zweiten Teil der Arbeit wird das chinesische Staatsverständnis analysiert – vom traditionellen „Tianxia“ zum „modernen“ Staat. Mithilfe abgeleiteter Kriterien wird die chinesische Unternehmensentwicklung in drei zeitlichen Querschnittsphasen betrachtet, wie sich chinesische Unternehmen vom traditionellen bis zum „modernen“ entwickelten. Als Fallbeispiel werden chinesische Buchdruckunternehmen herangezogen. Zuerst wird das Buchdrucksystem sowie seine Veränderungen in drei Zeitphase betrachtet. Dabei wird auf die Aspekte Buchdruckorganisation, staatliche Verwaltung, wie Zensur und Urheberrecht sowie Lehrmaterial fokussiert, die für die Buchdruckunternehmensentwicklung von Bedeutung sind und ein System darstellen. Aus Mikrosicht werden drei Buchdruckunternehmen in den Zeitphasen analysiert. Im Ergebnis der Arbeit werden Schlussfolgerungen abgeleitet, bspw. dass Modernisierung als Aktualisierung verstanden werden sollte, aber nicht als Zerstörung.
Die vorliegende Arbeit beschäftigt sich mit dem Thema Stadthotels in Deutschland zwischen Energieeffizienz und Wirtschaftlichkeit - Studie auf Grundlagen der EnEV-Anforderungen. Die Arbeit setzt sich mit einer qualitativen und quantitativen Analyse über die Energieeffizienz auf Grundlagen der EnEV-Anforderungen und deren Wirtschaftlichkeit bei Stadthotels in Deutschland auseinander. Die Analyse wurde anhand von verschiedenen Untersuchungen bei Hotels aufgebaut. Diese umfassen empirische, energetische und wirtschaftliche Untersuchungen. Die durchgeführten Untersuchungen kommen schließlich zu eindeutigen Ergebnissen auf verschiedenen Ebenen. Im Ergebnis wird deutlich, dass die Optimierung der Gebäudetechnik sowie auch die Verbesserung der energetischen Qualität der Gebäudehülle der Hotels bedeutende Einflussfaktoren zur Steigerung der Energieeffizienz darstellen. Dabei ist jedoch festzuhalten, dass sich die Optimierung der Gebäudetechnik der Hotels insbesondere im Bereich der Lüftungs- und Klimatechnik als besonders wirksam erwiesen hat. Die Effektivität dieser Maßnahmen konnte sowohl in Hinsicht auf die Steigerung der Energieeffizienz als auch in Bezug auf die Wirtschaftlichkeit bewiesen werden.
Briefly, the two basic questions that this research is supposed to answer are:
1. Howmuch fiber is needed and how fibers should be distributed through a fiber reinforced composite (FRC) structure in order to obtain the optimal and reliable structural response?
2. How do uncertainties influence the optimization results and reliability of the structure?
Giving answer to the above questions a double stage sequential optimization algorithm for finding the optimal content of short fiber reinforcements and their distribution in the composite structure, considering uncertain design parameters, is presented. In the first stage, the optimal amount of short fibers in a FRC structure with uniformly distributed fibers is conducted in the framework of a Reliability Based Design Optimization (RBDO) problem. Presented model considers material, structural and modeling uncertainties. In the second stage, the fiber distribution optimization (with the aim to further increase in structural reliability) is performed by defining a fiber distribution function through a Non-Uniform Rational BSpline (NURBS) surface. The advantages of using the NURBS surface as a fiber distribution function include: using the same data set for the optimization and analysis; high convergence rate due to the smoothness of the NURBS; mesh independency of the optimal layout; no need for any post processing technique and its non-heuristic nature. The output of stage 1 (the optimal fiber content for homogeneously distributed fibers) is considered as the input of stage 2. The output of stage 2 is the Reliability Index (b ) of the structure with the optimal fiber content and distribution.
First order reliability method (in order to approximate the limit state function) as well as different material models including Rule of Mixtures, Mori-Tanaka, energy-based approach and stochastic multi-scales are implemented in different examples. The proposed combined model is able to capture the role of available uncertainties in FRC structures through a computationally efficient algorithm using all sequential, NURBS and sensitivity based techniques. The methodology is successfully implemented for interfacial shear stress optimization in sandwich beams and also for optimization of the internal cooling channels in a ceramic matrix composite.
Finally, after some changes and modifications by combining Isogeometric Analysis, level set and point wise density mapping techniques, the computational framework is extended for topology optimization of piezoelectric / flexoelectric materials.
In this study, the behavior of a widely graded soil prone to suffusion and necessity of homogeneity quantifi cation for such a soil in internal stability considerations are discussed. With the help of suffusion tests, the dependency of the particle washout to homogeneity of sample is shown. The validity of the great infl uence of homogeneity on suffusion processes by the presentation of arguments and evidences are established. It is emphasized that the internal stability of a widely graded soil cannot be directly correlated to the common geotechnical parameters such as dry density or permeability. The initiation and propagation of the suffusion processes are clearly a particle scale phenomenon, so the homogeneity of particle assemblies (micro-scale) has a decisive effect on particle rearrangement and washout processes. It is addressed that the guidelines for assessing internal stability lack a fundamental, scientifi c basis for quantifi cation of homogeneity. The observation of the segregation processes within the sample in an ascending layered order (for downwards fl ow) inspired the author to propose a new packing model for granular materials which are prone to internally instability.
It is shown that the particle arrangement, especially the arrangement of soil skeleton particles or the so-called primary fabric has the main role in suffusiv processes. Therefore, an experimental approach for identifi cation of the skeleton in the soil matrix is proposed. 3D models of Sequential Fill Tests using Discrete Element Method (DEM) and 3D models of granular packings for relative, stochastically and ideal homogeneous particle assemblies were generated, and simulations have been carried out.
Based on the numerical investigations and in dependency on the soil skeleton behavior, an approach for measurement of relevant scale, the so-called Representative Elementary Volume (REV) for homogeneity investigation is proposed. The development of a new testing method for quantifi cation of homogeneity is introduced (in-situ). An approach for quantifi cation of homogeneity in numerically or experimentally generated packings (samples) based on image processing method of MATLAB has been introduced. A generalized experimental method for assessment of internal stability for widely graded soils with dominant coarse matrix is developed, and a new suffusion criterion based on ideal homogeneous internally stable granular packing is designed.
My research emphasizes that in a widely graded soils with dominant coarse matrix, the soil fractions with diameters bigger than D60 build essentially the soil skeleton. The mass and spatial distribution of these fractions governs the internal stability, and the mass and distribution of the fi ll fractions are a secondary matter. For such a soil, the homogeneity of the skeleton must be cautiously measured and verified.
Szenarien der Moderne
(2016)
Wenige Begriffe vermögen so viel Faszination und Unbehagen gleichzeitig auszulösen wie die Moderne. Der Begriff birgt so viele Unschärfen, dass man eigentlich gut daran tun würde, ihn zu vermeiden. Allein die Frage, was modern sei, oder wann die Moderne begann, lässt sich nicht eindeutig beantworten. Vielleicht am meisten Kontur besitzt die Moderne als Epochenbegriff der Geschichtswissenschaften, wobei auch dort zwischen ökonomischen, politischen und weiteren Modernen unterschieden wird. Geradezu inflationär ist die Verwendung in der Kunsthistoriografie: Über weite Strecken des 20. Jahrhunderts wurde die Moderne als hauptsächlich ästhetisches Phänomen verstanden und tradiert, bis zur Konstruktion des längst relativierten Mythos der Begründung der Moderne allein durch das Neue Bauen oder gar das Bauhaus.
Spätestens die Postmoderne hat den Begriff endgültig diversifiziert und dazu beigetragen, dass lange „als antimoderne Rückfälle" (G. Weckerlin) beschriebene Strömungen in einer erweiterten Sichtweise als Phänomene modernen Kunstschaffens wahrgenommen werden, wie etwa die Heimatschutzarchitektur oder die Monumentalbaukunst im Nationalsozialismus. Angesichts des entstandenen Spektrums ist heute von einem pluralistischen Begriff der Moderne auszugehen. Für die zweite Jahrhunderthälfte spricht man von Nachkriegsmoderne, Spätmoderne und Postmoderne. Stilistisch decken diese Varianten ein breites Feld ab – vom Funktionalismus über Strukturalismus, Brutalismus bis zum postmodernen „anything goes“. Dass diese Strömungen in ihrer Begriffsdefinition sowie in der Abgrenzung zueinander teils große Ungenauigkeiten aufweisen, verdeutlicht der Begriff der Nachkriegsmoderne, der sich auf das Ende des Zweiten Weltkrieges bezieht und dabei andere Konflikte außer Acht lässt. In manchen osteuropäischen Ländern spricht man daher eher von Ostmoderne oder Sozmoderne.
Unabhängig von der Wirkungsweise der Begriffe ragt die Moderne in verschiedensten Szenarien in unser alltägliches Leben hinein. Dieses Heft zeigt die Vielfalt solcher Situationen an verschiedenen Orten: bei der Betrachtung von Fassaden im Straßenraum, im Museum für Gegenwartskunst, an der Bushaltestelle oder beim Stadtlauf. Die Moderne ist so allgegenwärtig, dass ihre Werte, aber auch ihre Verletzlichkeit gerade deshalb oft nicht erkannt und erfasst werden. Mit dem Problem einer voreingenommenen Wahrnehmung und fehlenden Auseinandersetzung kämpfen zurzeit viele Denkmalämter und bürgerschaftliche Initiativen, die sich zunehmend mit den Baubeständen der Moderne beschäftigen. Das vorliegende Heft bildet eine Spurensuche nach verschiedenen Szenarien
der Moderne ab, die ganz bewusst abseits der breiten Pfade verläuft. Dabei versucht das Heft, die schillernden Facetten und die trotz allem große Bindekraft des Moderne-Begriffes aus verschiedenen Perspektiven zu beleuchten und zu ergründen.