Refine
Document Type
- Article (35)
- Doctoral Thesis (20)
- Book (6)
- Bachelor Thesis (3)
- Conference Proceeding (3)
- Periodical (2)
- Working Paper (1)
Institute
- Institut für Strukturmechanik (ISM) (18)
- Professur Stochastik und Optimierung (11)
- Junior-Professur Computational Architecture (7)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (6)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (6)
- F. A. Finger-Institut für Baustoffkunde (FIB) (5)
- Professur Denkmalpflege und Baugeschichte (4)
- An-Institute (2)
- Materialforschungs- und -prüfanstalt an der Bauhaus-Universität (2)
- Professur Baubetrieb und Bauverfahren (2)
- Professur Baumanagement und Bauwirtschaft (2)
- Professur Informatik im Bauwesen (2)
- Professur Tragwerkslehre (2)
- Professur Verkehrsplanung und Verkehrstechnik (2)
- Dozentur Film- und Medienwissenschaft (1)
- Internationales Kolleg für Kulturtechnikforschung und Medienphilosophie (IKKM) (1)
- Juniorprofessur Urban Energy Systems (1)
- Professur Bauformenlehre (1)
- Professur Biotechnologie in der Ressourcenwirtschaft (1)
- Professur Content Management und Webtechnologien (1)
- Professur Grundbau (1)
- Professur Informatik in der Architektur (1)
- Professur Medienmanagement (1)
- Professur Systeme der Virtuellen Realität (1)
- Professur Verkehrssystemplanung (1)
- Universitätsbibliothek (1)
Keywords
- Angewandte Mathematik (11)
- Stochastik (11)
- Strukturmechanik (11)
- Architektur (2)
- BIM (2)
- Building Information Modeling (2)
- Controlling (2)
- Entscheidungsunterstützung (2)
- Erdbau (2)
- Film (2)
Year of publication
- 2016 (70) (remove)
The key objective of this research is to study fracture with a meshfree method, local maximum entropy approximations, and model fracture in thin shell structures with complex geometry and topology. This topic is of high relevance for real-world applications, for example in the automotive industry and in aerospace engineering. The shell structure can be described efficiently by meshless methods which are capable of describing complex shapes as a collection of points instead of a structured mesh. In order to find the appropriate numerical method to achieve this goal, the first part of the work was development of a method based on local maximum entropy (LME)
shape functions together with enrichment functions used in partition of unity methods to discretize problems in linear elastic fracture mechanics. We obtain improved accuracy relative to the standard extended finite element method (XFEM) at a comparable computational cost. In addition, we keep the advantages of the LME shape functions,such as smoothness and non-negativity. We show numerically that optimal convergence (same as in FEM) for energy norm and stress intensity factors can be obtained through the use of geometric (fixed area) enrichment with no special treatment of the nodes
near the crack such as blending or shifting.
As extension of this method to three dimensional problems and complex thin shell structures with arbitrary crack growth is cumbersome, we developed a phase field model for fracture using LME. Phase field models provide a powerful tool to tackle moving interface problems, and have been extensively used in physics and materials science. Phase methods are gaining popularity in a wide set of applications in applied science and engineering, recently a second order phase field approximation for brittle fracture has gathered significant interest in computational fracture such that sharp cracks discontinuities are modeled by a diffusive crack. By minimizing the system energy with respect to the mechanical displacements and the phase-field, subject to an irreversibility condition to avoid crack healing, this model can describe crack nucleation, propagation, branching and merging. One of the main advantages of the phase field modeling of fractures is the unified treatment of the interfacial tracking and mechanics, which potentially leads to simple, robust, scalable computer codes applicable to complex systems. In other words, this approximation reduces considerably the implementation complexity because the numerical tracking of the fracture is not needed, at the expense of a high computational cost. We present a fourth-order phase field model for fracture based on local maximum entropy (LME) approximations. The higher order continuity of the meshfree LME approximation allows to directly solve the fourth-order phase field equations without splitting the fourth-order differential equation into two second order differential equations. Notably, in contrast to previous discretizations that use at least a quadratic basis, only linear completeness is needed in the LME approximation. We show that the crack surface can be captured more accurately in the fourth-order model than the second-order model. Furthermore, less nodes are needed for the fourth-order model to resolve the crack path. Finally, we demonstrate the performance of the proposed meshfree fourth order phase-field formulation for 5 representative numerical examples. Computational results will be compared to analytical solutions within linear elastic fracture mechanics and experimental data for three-dimensional crack propagation.
In the last part of this research, we present a phase-field model for fracture in Kirchoff-Love thin shells using the local maximum-entropy (LME) meshfree method. Since the crack is a natural outcome of the analysis it does not require an explicit representation and tracking, which is advantageous over techniques as the extended finite element method that requires tracking of the crack paths. The geometric description of the shell is based on statistical learning techniques that allow dealing with general point set surfaces avoiding a global parametrization, which can be applied to tackle surfaces of complex geometry and topology. We show the flexibility and robustness of the present methodology for two examples: plate in tension and a set of open connected
pipes.
Piezoelectric materials are used in several applications as sensors and actuators where they experience high stress and electric field concentrations as a result of which they may fail due to fracture. Though there are many analytical and experimental works on piezoelectric fracture mechanics. There are very few studies about damage detection, which is an interesting way to prevent the failure of these ceramics.
An iterative method to treat the inverse problem of detecting cracks and voids in piezoelectric structures is proposed. Extended finite element method (XFEM) is employed for solving the inverse problem as it allows the use of a single regular mesh for large number of iterations with different flaw geometries.
Firstly, minimization of cost function is performed by Multilevel Coordinate Search (MCS) method. The XFEM-MCS methodology is applied to two dimensional electromechanical problems where flaws considered are straight cracks and elliptical voids. Then a numerical method based on combination of classical shape derivative and level set method for front propagation used in structural optimization is utilized to minimize the cost function. The results obtained show that the XFEM-level set methodology is effectively able to determine the number of voids in a piezoelectric structure and its corresponding locations.
The XFEM-level set methodology is improved to solve the inverse problem of detecting inclusion interfaces in a piezoelectric structure. The material interfaces are implicitly represented by level sets which are identified by applying regularisation using total variation penalty terms. The formulation is presented for three dimensional structures and inclusions made of different materials are detected by using multiple level sets. The results obtained prove that the iterative procedure proposed can determine the location and approximate shape of material subdomains in the presence of higher noise levels.
Piezoelectric nanostructures exhibit size dependent properties because of surface elasticity and surface piezoelectricity. Initially a study to understand the influence of surface elasticity on optimization of nano elastic beams is performed. The boundary of the nano structure is implicitly represented by a level set function, which is considered as the design variable in the optimization process. Two objective functions, minimizing the total potential energy of a nanostructure subjected to a material volume constraint and minimizing the least square error compared to a target
displacement, are chosen for the numerical examples. The numerical examples demonstrate the importance of size and aspect ratio in determining how surface effects impact the optimized topology of nanobeams.
Finally a conventional cantilever energy harvester with a piezoelectric nano layer is analysed. The presence of surface piezoelectricity in nano beams and nano plates leads to increase in electromechanical coupling coefficient. Topology optimization of these piezoelectric structures in an energy harvesting device to further increase energy conversion using appropriately modified XFEM-level set algorithm is performed .
It's not uncommon that analysis and simulation methods are used mainly to evaluate finished designs and to proof their quality. Whereas the potential of such methods is to lead or control a design process from the beginning on. Therefore, we introduce a design method that move away from a “what-if” forecasting philosophy and increase the focus on backcasting approaches. We use the power of computation by combining sophisticated methods to generate design with analysis methods to close the gap between analysis and synthesis of designs. For the development of a future-oriented computational design support we need to be aware of the human designer’s role. A productive combination of the excellence of human cognition with the power of modern computing technology is needed. We call this approach “cognitive design computing”. The computational part aim to mimic the way a designer’s brain works by combining state-of-the-art optimization and machine learning approaches with available simulation methods. The cognition part respects the complex nature of design problems by the provision of models for human-computation interaction. This means that a design problem is distributed between computer and designer. In the context of the conference slogan “back to command”, we ask how we may imagine the command over a cognitive design computing system. We expect that designers will need to let go control of some parts of the design process to machines, but in exchange they will get a new powerful command on complex computing processes. This means that designers have to explore the potentials of their role as commanders of partially automated design processes. In this contribution we describe an approach for the development of a future cognitive design computing system with the focus on urban design issues. The aim of this system is to enable an urban planner to treat a planning problem as a backcasting problem by defining what performance a design solution should achieve and to automatically query or generate a set of best possible solutions. This kind of computational planning process offers proof that the designer meets the original explicitly defined design requirements. A key way in which digital tools can support designers is by generating design proposals. Evolutionary multi-criteria optimization methods allow us to explore a multi-dimensional design space and provide a basis for the designer to evaluate contradicting requirements: a task urban planners are faced with frequently. We also reflect why designers will give more and more control to machines. Therefore, we investigate first approaches learn how designers use computational design support systems in combination with manual design strategies to deal with urban design problems by employing machine learning methods. By observing how designers work, it is possible to derive more complex artificial solution strategies that can help computers make better suggestions in the future.
Assessing Essential Qualities of Urban Space with Emotional and Visual Data Based on GIS Technique
(2016)
Finding a method to evaluate people’s emotional responses to urban spaces in a valid and objective way is fundamentally important for urban design practices and related policy making. Analysis of the essential qualities of urban space could be made both more effective and more accurate using innovative information techniques that have become available in the era of big data. This study introduces an integrated method based on geographical information systems (GIS) and an emotion-tracking technique to quantify the relationship between people’s emotional responses and urban space. This method can evaluate the degree to which people’s emotional responses are influenced by multiple urban characteristics such as building shapes and textures, isovist parameters, visual entropy, and visual fractals. The results indicate that urban spaces may influence people’s emotional responses through both spatial sequence arrangements and shifting scenario sequences. Emotional data were collected with body sensors and GPS devices. Spatial clustering was detected to target effective sampling locations; then, isovists were generated to extract building textures. Logistic regression and a receiver operating characteristic analysis were used to determine the key isovist parameters and the probabilities that they influenced people’s emotion. Finally, based on the results, we make some suggestions for design professionals in the field of urban space optimization.
Briefly, the two basic questions that this research is supposed to answer are:
1. Howmuch fiber is needed and how fibers should be distributed through a fiber reinforced composite (FRC) structure in order to obtain the optimal and reliable structural response?
2. How do uncertainties influence the optimization results and reliability of the structure?
Giving answer to the above questions a double stage sequential optimization algorithm for finding the optimal content of short fiber reinforcements and their distribution in the composite structure, considering uncertain design parameters, is presented. In the first stage, the optimal amount of short fibers in a FRC structure with uniformly distributed fibers is conducted in the framework of a Reliability Based Design Optimization (RBDO) problem. Presented model considers material, structural and modeling uncertainties. In the second stage, the fiber distribution optimization (with the aim to further increase in structural reliability) is performed by defining a fiber distribution function through a Non-Uniform Rational BSpline (NURBS) surface. The advantages of using the NURBS surface as a fiber distribution function include: using the same data set for the optimization and analysis; high convergence rate due to the smoothness of the NURBS; mesh independency of the optimal layout; no need for any post processing technique and its non-heuristic nature. The output of stage 1 (the optimal fiber content for homogeneously distributed fibers) is considered as the input of stage 2. The output of stage 2 is the Reliability Index (b ) of the structure with the optimal fiber content and distribution.
First order reliability method (in order to approximate the limit state function) as well as different material models including Rule of Mixtures, Mori-Tanaka, energy-based approach and stochastic multi-scales are implemented in different examples. The proposed combined model is able to capture the role of available uncertainties in FRC structures through a computationally efficient algorithm using all sequential, NURBS and sensitivity based techniques. The methodology is successfully implemented for interfacial shear stress optimization in sandwich beams and also for optimization of the internal cooling channels in a ceramic matrix composite.
Finally, after some changes and modifications by combining Isogeometric Analysis, level set and point wise density mapping techniques, the computational framework is extended for topology optimization of piezoelectric / flexoelectric materials.
The phenomenon of aerodynamic instability caused by the wind is usually a major design criterion for long-span cable-supported bridges. If the wind speed exceeds the critical flutter speed of the bridge, this constitutes an Ultimate Limit State. The prediction of the flutter boundary, therefore, requires accurate and robust models. The complexity and uncertainty of models for such engineering problems demand strategies for model assessment. This study is an attempt to use the concepts of sensitivity and uncertainty analyses to assess the aeroelastic instability prediction models for long-span bridges. The state-of-the-art theory concerning the determination of the flutter stability limit is presented. Since flutter is a coupling of aerodynamic forcing with a structural dynamics problem, different types and classes of structural and aerodynamic models can be combined to study the interaction. Here, both numerical approaches and analytical models are utilised and coupled in different ways to assess the prediction quality of the coupled model.
In the Space Syntax community, the standard tool for computing all kinds of spatial graph network measures is depthmapX (Turner, 2004; Varoudis, 2012). The process of evaluating many design variants of networks is relatively complicated, since they need to be drawn in a separated CAD system, exported and imported in depthmapX via dxf file format. This procedure disables a continuous integration into a design process. Furthermore, the standalone character of depthmapX makes it impossible to use its network centrality calculation for optimization processes. To overcome this limitations, we present in this paper the first steps of experimenting with a Grasshopper component (reference omitted until final version) that can access the functions of depthmapX and integrate them into Grasshopper/Rhino3D. Here the component is implemented in a way that it can be used directly for an evolutionary algorithm (EA) implemented in a Python scripting component in Grasshopper
Versatzstücke
(2016)
Bei studentischen Entwürfen, die sich mit dem Bauen im Bestand befassen, zeigt sich in jüngerer Zeit ein gestiegenes Interesse nicht nur an denkmalpflegerischen Fragen, sondern auch am historischen Material als solchem. Man schätzt es im Sinne eines begrenzt verfügbaren, daher wertvollen Reservoirs, aus dem man auf vielfältige Weise schöpfen kann, z. B. durch Integration von Recycling-Materialien oder aber auch durch Anleihen an den historischen Formenapparat. Dabei bedient man sich einer alten Methode: des Arbeitens mit Versatzstücken.
Per Definition ist ein Versatzstück der bewegliche, beliebig zu versetzende Teil einer Bühnendekoration. Im übertragenen Sinne ist damit jedoch ein künstlerisches Verfahren gemeint, nämlich Teile eines Werkes in einem anderen Kontext – einem neuen Werk – schöpferisch wiederzuverwenden. Dieses Einfügen am neuen Ort ist in der Architektur meist mit einem räumlichen „Versetzen“ verbunden. Stets jedoch geht es auch um eine zeitliche Differenz: Denn das Versatzstück stellt einerseits den Bezug zu einem älteren Kontext her und veranschaulicht andererseits den Bruch, das Anders- und Fremdartige. Daher wohnt einer derartigen Zwiesprache zwischen Alt und Neu häufig ein ästhetisch bereicherndes, zugleich ein narratives Moment inne.
Vom kunsthistorischen Begriff der „Spolie“ unterscheidet sich derjenige des „Versatzstückes“ durch seine größere Offenheit für verschiedene Interpretationen, wie die Beiträge dieses Heftes belegen. Allen gemeinsam ist die Frage nach den Bedeutungen, die man den jeweiligen Relikten beimisst: Sind derartige Wiederverwendungen pragmatisch oder programmatisch intendiert? Stehen ökonomische, politisch-ideologische, religiöse oder künstlerische Motive dahinter? Die Beiträge des Heftes zeigen, dass es sich wohl meist um eine Gemengelage handelt – mit allerdings unterschiedlichen Gewichtungen je nach Bauaufgabe, Anspruchsniveau und Zeitgeist.
In der Gegenwart ist ein Arbeiten mit Versatzstücken u. a. ökologisch, vor allem aber wohl ästhetisch motiviert. Mit dem auf seine Verletzlichkeit verweisenden Fragment, mit dem durch Altersspuren angereicherten Relikt lassen sich Qualitäten des Poetischen erzeugen, die wir in einer weitgehend durchrationalisierten Welt zu schätzen wissen. In Reaktion auf die Spezifik des wiederverwendeten Materials scheint ein von normativen Vorstellungen abweichendes Arbeiten hier nicht nur erlaubt, sondern stellt sich oft als ein Gewinn heraus.
In der Ph.D.-Arbeit wird gefragt, wie verschieden gestaltete Landschaften heute erlebt werden und wie sie auf die Menschen wirken. Dafür wird die Atmosphärentheorie erweitert und auf Landschaften angewendet. Atmosphären sind räumliche Stimmungsqualitäten, geprägt von der Umgebung, welche Menschen beeinflussen. Es wird ein Modell entwickelt, welches die Prägung von Atmosphären auf massiver, mobiler und ephemer Ebene beschreibt. Mit künstlerischen Arbeiten werden Atmosphären verschiedener anthropogener Landschaften übersetzt. Mit der exemplarischen wie theoretischen Bearbeitung von landschaftsverbundenen Atmosphären wird die Korrelation von Menschen und Umgebung nachgewiesen.
In meiner theoretisch_praktischen Arbeit befasse ich mich mit der verletzenden Kraft von Sprache jenseits direkter Adressierung.
Es wird der Frage nachgegangen, ob und wie auch da Verletzung durch Sprache stattfindet, wo keine offensichtliche Diskriminierung erfolgt, sondern subtilere Wirkmächte der Performativität am Werk sind. Sprachliche Benenn- und Beweisbarkeit verletzenden Sprechens werden dabei in Frage gestellt und einem Wahrnehmen und Begegnen Vorrang gegeben.
Sowohl im eher theoretischen Teil, dem „Fragment I: 943 Fragen zur sprachlichen Gewalt“, als auch im vorwiegend praktischen Teil, dem „Fragment II: Untersuchungen und Zwischennutzungen“, wird eine Perspektive auf kritische Handlungsfähigkeit in Bezug auf Sprache und Gewalt eröffnet. Es wird ein Verständnis von Verantwortung als ein Affekt und zugleich Ort der Kritik zur Diskussion gestellt und befragt. Dabei versuche ich, über die dichotome Verfestigung von „Wir und die Anderen“ hinauszugelangen und dabei ein WIR, das nicht vom IHR getrennt ist, als WIHR in den Blick zu nehmen. Dieses WIHR muss notwendigerweise offen und flexibel bleiben. Es soll eine Art Möglichkeitsraum schaffen, der nicht neu geordnet, sondern im beständigen Fragen einer abschließenden Antwort entzogen wird.
Eine Annäherung in vor allem zeichnerischen und auditiven Untersuchungen sowie 943 Fragen.
In der Arbeit wurde eine Methode für eine kulturübergreifende Vergleichsstudie zwischen China und dem Westen erarbeitet. Diese Methode ermöglicht Unternehmensentwicklung in China aus dem eignen historischen Zusammenhang zu verstehen, statt nur aus einem rein theoretischen Blickwinkel. Weil heutige wissenschaftliche Theorien meist aus der westlichen Kultur stammen und mit Wertvorstellungen sowie mit Begriffen aus dem westlichen Kulturkreis verbunden sind, müssen sie im historischen Kontext des westlichen Kulturkreises betrachtet werden.
Im ersten Teil der Arbeit wird der westliche moderne Staat als Untersuchungsbegriff herangezogen, seine Entstehungsbedingungen und seine Verwendungsart und -weise, besonders wie er die ökonomische Theorie und die Praxis im Westen beeinflusst, dabei spielt das moderne Staatsprinzip eine wichtige Rolle. Die Neue Institutionenökonomik dient als theoretischer Referenzrahmen für diese Arbeit. Mittels einer theoretischen Erweiterung mit dem westlichen modernen Staatsverständnis werden wichtige westliche konstitutionelle Institutionen analysiert, da sie die Handlungsrechte und -pflichten der Bürger sowie die Bildung der kapitalistischen Unternehmung beeinflussen.
Im zweiten Teil der Arbeit wird das chinesische Staatsverständnis analysiert – vom traditionellen „Tianxia“ zum „modernen“ Staat. Mithilfe abgeleiteter Kriterien wird die chinesische Unternehmensentwicklung in drei zeitlichen Querschnittsphasen betrachtet, wie sich chinesische Unternehmen vom traditionellen bis zum „modernen“ entwickelten. Als Fallbeispiel werden chinesische Buchdruckunternehmen herangezogen. Zuerst wird das Buchdrucksystem sowie seine Veränderungen in drei Zeitphase betrachtet. Dabei wird auf die Aspekte Buchdruckorganisation, staatliche Verwaltung, wie Zensur und Urheberrecht sowie Lehrmaterial fokussiert, die für die Buchdruckunternehmensentwicklung von Bedeutung sind und ein System darstellen. Aus Mikrosicht werden drei Buchdruckunternehmen in den Zeitphasen analysiert. Im Ergebnis der Arbeit werden Schlussfolgerungen abgeleitet, bspw. dass Modernisierung als Aktualisierung verstanden werden sollte, aber nicht als Zerstörung.
Szenarien der Moderne
(2016)
Wenige Begriffe vermögen so viel Faszination und Unbehagen gleichzeitig auszulösen wie die Moderne. Der Begriff birgt so viele Unschärfen, dass man eigentlich gut daran tun würde, ihn zu vermeiden. Allein die Frage, was modern sei, oder wann die Moderne begann, lässt sich nicht eindeutig beantworten. Vielleicht am meisten Kontur besitzt die Moderne als Epochenbegriff der Geschichtswissenschaften, wobei auch dort zwischen ökonomischen, politischen und weiteren Modernen unterschieden wird. Geradezu inflationär ist die Verwendung in der Kunsthistoriografie: Über weite Strecken des 20. Jahrhunderts wurde die Moderne als hauptsächlich ästhetisches Phänomen verstanden und tradiert, bis zur Konstruktion des längst relativierten Mythos der Begründung der Moderne allein durch das Neue Bauen oder gar das Bauhaus.
Spätestens die Postmoderne hat den Begriff endgültig diversifiziert und dazu beigetragen, dass lange „als antimoderne Rückfälle" (G. Weckerlin) beschriebene Strömungen in einer erweiterten Sichtweise als Phänomene modernen Kunstschaffens wahrgenommen werden, wie etwa die Heimatschutzarchitektur oder die Monumentalbaukunst im Nationalsozialismus. Angesichts des entstandenen Spektrums ist heute von einem pluralistischen Begriff der Moderne auszugehen. Für die zweite Jahrhunderthälfte spricht man von Nachkriegsmoderne, Spätmoderne und Postmoderne. Stilistisch decken diese Varianten ein breites Feld ab – vom Funktionalismus über Strukturalismus, Brutalismus bis zum postmodernen „anything goes“. Dass diese Strömungen in ihrer Begriffsdefinition sowie in der Abgrenzung zueinander teils große Ungenauigkeiten aufweisen, verdeutlicht der Begriff der Nachkriegsmoderne, der sich auf das Ende des Zweiten Weltkrieges bezieht und dabei andere Konflikte außer Acht lässt. In manchen osteuropäischen Ländern spricht man daher eher von Ostmoderne oder Sozmoderne.
Unabhängig von der Wirkungsweise der Begriffe ragt die Moderne in verschiedensten Szenarien in unser alltägliches Leben hinein. Dieses Heft zeigt die Vielfalt solcher Situationen an verschiedenen Orten: bei der Betrachtung von Fassaden im Straßenraum, im Museum für Gegenwartskunst, an der Bushaltestelle oder beim Stadtlauf. Die Moderne ist so allgegenwärtig, dass ihre Werte, aber auch ihre Verletzlichkeit gerade deshalb oft nicht erkannt und erfasst werden. Mit dem Problem einer voreingenommenen Wahrnehmung und fehlenden Auseinandersetzung kämpfen zurzeit viele Denkmalämter und bürgerschaftliche Initiativen, die sich zunehmend mit den Baubeständen der Moderne beschäftigen. Das vorliegende Heft bildet eine Spurensuche nach verschiedenen Szenarien
der Moderne ab, die ganz bewusst abseits der breiten Pfade verläuft. Dabei versucht das Heft, die schillernden Facetten und die trotz allem große Bindekraft des Moderne-Begriffes aus verschiedenen Perspektiven zu beleuchten und zu ergründen.
A parametric method for building design optimization based on Life Cycle Assessment - Appendix
(2016)
The building sector is responsible for a large share of human environmental impacts, over which architects and planners have a major influence. The main objective of this thesis is to develop a method for environmental building design optimization based on Life Cycle Assessment (LCA) that is applicable as part of the design process. The research approach includes a thorough analysis of LCA for buildings in relation to the architectural design stages and the establishment of a requirement catalogue. The key concept of the novel method called Parametric Life Cycle Assessment(PLCA) is to combine LCA with parametric design. The application of this method to three examples shows that building designs can be optimized time-efficiently and holistically from the beginning of the most influential early design stages, an achievement which has not been possible until now.
Cyber security has become a major concern for users and businesses alike. Cyberstalking and harassment have been identified as a growing anti-social problem. Besides detecting cyberstalking and harassment, there is the need to gather digital evidence, often by the victim. To this end, we provide an overview of and discuss relevant technological means, in particular coming from text analytics as well as machine learning, that are capable to address the above challenges. We present a framework for the detection of text-based cyberstalking and the role and challenges of some core techniques such as author identification, text classification and personalisation. We then discuss PAN, a network and evaluation initiative that focusses on digital text forensics, in particular author identification.
This thesis suggests cooperation as a design paradigm for human-computer interaction. The basic idea is that the synergistic co-operation of interfaces through concurrent user activities enables increased interaction fluency and expressiveness. This applies to bimanual interaction and multi-finger input, e.g., touch typing, as well as the collaboration of multiple users. Cooperative user interfaces offer more interaction
flexibility and expressivity for single and multiple users.
Part I of this thesis analyzes the state of the art in user interface design. It explores limitations of common approaches and reveals the crucial role of cooperative action in several established user interfaces and research prototypes. A review of related research in psychology and human-computer interaction offers insights to the cognitive, behavioral, and ergonomic foundations of cooperative user interfaces. Moreover, this thesis suggests a broad applicability of generic cooperation patterns and contributes three high-level design principles.
Part II presents three experiments towards cooperative user interfaces in detail. A study on desktop-based 3D input devices, explores fundamental benefits of cooperative bimanual input and the impact of interface design on bimanual cooperative behavior. A novel interaction technique for multitouch devices is presented that follows the paradigm of cooperative user interfaces and demonstrates advantages over the status quo. Finally, this thesis introduces a fundamentally new display technology that provides up to six users with their individual perspectives of a shared 3D environment. The system creates new possibilities for the cooperative interaction of
multiple users.
Part III of this thesis builds on the research results described in Part II, in particular, the multi-user 3D display system. A series of case studies in the field of collaborative virtual reality provides exemplary evidence for the relevance and applicability of the suggested design principles.
Das Erzeugen räumlicher Konfigurationen ist eine zentrale Aufgabe im architektonischen bzw. städtebaulichen Entwurfsprozess und hat zum Ziel, eine für Menschen angenehme Umwelt zu schaffen. Der Geometrie der entstehenden Räume kommt hierbei eine zentrale Rolle zu, da sie einen großen Einfluss auf das Empfinden und Verhalten der Menschen ausübt und nur noch mit großem Aufwand verändert werden kann, wenn sie einmal gebaut wurde. Die meisten Entscheidungen zur Festlegung der Geometrie von Räumen werden während eines sehr kurzen Zeitraums (Entwurfsphase) getroffen. Fehlentscheidungen die in dieser Phase getroffen werden haben langfristige Auswirkungen auf das Leben von Menschen, und damit auch Konsequenzen auf ökonomische und ökologische Aspekte.
Mittels computerbasierten Layoutsystemen lässt sich der Entwurf räumlicher Konfigurationen sinnvoll unterstützen, da sie es ermöglichen, in kürzester Zeit eine große Anzahl an Varianten zu erzeugen und zu überprüfen. Daraus ergeben sich zwei Vorteile. Erstens kann die große Menge an Varianten dazu beitragen, bessere Lösungen zu finden. Zweitens kann das Formalisieren von Bewertungskriterien zu einer größeren Objektivität und Transparenz bei der Lösungsfindung führen. Um den Entwurf räumlicher Konfigurationen optimal zu unterstützen, muss ein Layoutsystem in der Lage sein, ein möglichst großes Spektrum an Grundrissvarianten zu erzeugen (Vielfalt); und zahlreiche Möglichkeiten und Detaillierungsstufen zur Problembeschreibung (Flexibilität), sowie Mittel anzubieten, mit denen sich die Anforderungen an die räumliche Konfiguration adäquat beschreiben lassen (Relevanz). Bezüglich Letzterem spielen wahrnehmungs- und nutzungsbezogene Kriterien (wie z. B. Grad an Privatheit, Gefühl von Sicherheit, Raumwirkung, Orientierbarkeit, Potenzial zu sozialer Interaktion) eine wichtige Rolle.
Die bislang entwickelten Layoutsysteme weisen hinsichtlich Vielfalt, Flexibilität und Relevanz wesentliche Beschränkungen auf, welche auf eine ungeeignete Methode zur Repräsentation von Räumen zurückzuführen sind. Die in einem Layoutsystem verwendeten Raumrepräsentationsmethoden bestimmen die Möglichkeiten zur Formerzeugung und Problembeschreibung wesentlich. Sichtbarkeitsbasierte Raumrepräsentationen (Sichtfelder, Sichtachsen, Konvexe Räume) eignen sich in besonderer Weise zur Abbildung von Räumen in Layoutsystemen, da sie einerseits ein umfangreiches Repertoire zur Verfügung stellen, um räumliche Konfigurationen hinsichtlich wahrnehmungs- und nutzungsbezogener Kriterien zu beschreiben. Andererseits lassen sie sich vollständig aus der Geometrie der begrenzenden Oberflächen ableiten und sind nicht an bestimmte zur Formerzeugung verwendete geometrische Objekte gebunden.
In der vorliegenden Arbeit wird ein Layoutsystem entwickelt, welches auf diesen Raumrepräsentationen basiert. Es wird ein Evaluationsmechanismus (EM) entwickelt, welcher es ermöglicht, beliebige zweidimensionale räumliche Konfigurationen hinsichtlich wahrnehmungs- und nutzungsrelevanter Kriterien zu bewerten. Hierzu wurde eine Methodik entwickelt, die es ermöglicht automatisch Raumbereiche (O-Spaces und P-Spaces) zu identifizieren, welche bestimmte Eigenschaften haben (z.B. sichtbare Fläche, Kompaktheit des Sichtfeldes, Tageslicht) und bestimmte Relationen zueinander (wie gegenseitige Sichtbarkeit, visuelle und physische Distanz) aufweisen. Der EM wurde mit Generierungsmechanismen (GM) gekoppelt, um zu prüfen, ob dieser sich eignet, um in großen Variantenräumen nach geeigneten räumlichen Konfigurationen zu suchen. Die Ergebnisse dieser Experimente zeigen, dass die entwickelte Methodik einen vielversprechenden Ansatz zur automatisierten Erzeugung von räumlichen Konfigurationen darstellt: Erstens ist der EM vollständig vom GM getrennt, wodurch es möglich ist, verschiedene GM in einem Entwurfssystem zu verwenden und somit den Variantenraum zu vergrößern (Vielfalt). Zweitens erlaubt der EM die Anforderungen an eine räumliche Konfiguration flexibel zu beschreiben (unterschiedliche Maßstäbe, unterschiedlicher Detaillierungsgrad). Letztlich erlauben die verwendeten Repräsentationsmethoden eine Problembeschreibung vorzunehmen, die stark an der Wirkung des Raumes auf den Menschen orientiert ist (Relevanz).
Die in der Arbeit entwickelte Methodik leistet einen wichtigen Beitrag zur Verbesserung evidenzbasierter Entwurfsprozesse, da sie eine Brücke zwischen der nutzerorientierten Bewertung von räumlichen Konfigurationen und deren Erzeugung schlägt.
Die vorliegende Arbeit fokussiert die Optimierung freigeformter adaptiver Faserverbundflächentragwerke auf Basis einer entwickelten und auf einem parametrischen Gesamtmodell basierenden Entwurfsmethode. Die Übertragung adaptiver, natürlich inspirierter Vorgänge stellt eine weitreichende Inspirationsquelle dar. Adaptive Tragwerke können unter Anwendung von Smart Materials als materialsparende, filigrane Tragwerke ausgeführt werden. Die Erfüllung der Grenzzustände der Tragfähigkeit und der Gebrauchstauglichkeit wird nicht allein über die Querschnittsabmessungen sichergestellt. Die notwendige Bauteilsteifigkeit kann vielmehr durch Eintragung von Aktivierungsenergie (Operational Energy) realisiert werden. Auf diese Weise kann die aufgrund der Bauteilabmessungen gebundene Energie (Embodied Energy) minimiert werden. Die entwickelte Entwurfsmethode ermöglicht die Auslegung und Optimierung materialminimierter Schalentragwerke in einem mehrstufigen Prozess. Hierbei wird aus tragwerksplanerischer Sicht die numerische Formfindung, die statische Berechnung und die Aktor- und Sensorpositionierung berechnet. Zudem werden Analysen hinsichtlich der Nachhaltigkeit auf Basis einer Lebenszyklusanalyse durchgeführt. Aufgrund der unterschiedlichen, sich aber gegenseitig beeinflussenden Kriterien, ist eine Optimierung durchzuführen. In der vorliegenden Arbeit wird ein Ansatz zur Definition zulässiger Ökobilanzkennwerte von Smart Materials auf Basis der Energiedifferenz zwischen einer passiven und einer adaptiven Struktur vorgestellt. Anhand dieser Kennwerte kann die Entwicklung zukünftiger Smart Materials unter dem Aspekt der ganzheitlichen Nachhaltigkeit erfolgen. Die Allgemeingültigkeit und Übertragbarkeit der Entwurfsmethode auf weitere Tragsysteme im Bauwesen und speziell anderer Materialkonstellationen wird anhand verschiedener Beispiele aufgezeigt.
Die Bauinformatik ist eine Säule der modernen Bau- und Umweltingenieurwissenschaften und befasst sich mit der Erforschung grundlegender informatorischer Methoden sowie mit der Anwendung und Weiterentwicklung der Informationswissenschaften im Bau- und Umweltbereich. Der Arbeitskreis Bauinformatik konstituiert sich aus Wissenschaftlern, die an Universitäten im deutschsprachigen Raum auf dem Fachgebiet Bauinformatik lehren und forschen. Ausgehend vom erreichten Entwicklungsstand der Bauinformatik skizziert dieses Positionspapier die Aufgaben des Arbeitskreises und formuliert eine Grundlage für eine abgestimmte Weiterentwicklung an den deutschsprachigen Universitäten.
Die vorliegende Arbeit beschäftigt sich mit dem Thema Stadthotels in Deutschland zwischen Energieeffizienz und Wirtschaftlichkeit - Studie auf Grundlagen der EnEV-Anforderungen. Die Arbeit setzt sich mit einer qualitativen und quantitativen Analyse über die Energieeffizienz auf Grundlagen der EnEV-Anforderungen und deren Wirtschaftlichkeit bei Stadthotels in Deutschland auseinander. Die Analyse wurde anhand von verschiedenen Untersuchungen bei Hotels aufgebaut. Diese umfassen empirische, energetische und wirtschaftliche Untersuchungen. Die durchgeführten Untersuchungen kommen schließlich zu eindeutigen Ergebnissen auf verschiedenen Ebenen. Im Ergebnis wird deutlich, dass die Optimierung der Gebäudetechnik sowie auch die Verbesserung der energetischen Qualität der Gebäudehülle der Hotels bedeutende Einflussfaktoren zur Steigerung der Energieeffizienz darstellen. Dabei ist jedoch festzuhalten, dass sich die Optimierung der Gebäudetechnik der Hotels insbesondere im Bereich der Lüftungs- und Klimatechnik als besonders wirksam erwiesen hat. Die Effektivität dieser Maßnahmen konnte sowohl in Hinsicht auf die Steigerung der Energieeffizienz als auch in Bezug auf die Wirtschaftlichkeit bewiesen werden.
Die vorliegende Arbeit untersucht das Potential von Webanwendungen in 3D zur Vermittlung von Informationen im Allgemeinen und zur Darstellung von städtebaulichen Zusammenhängen im Speziellen.
Als grundlegender Faktor der visuellen und funktionalen Qualität - welche die Wahrnehmung des Nutzers direkt beeinflusst -, erfolgt die Bewertung der Machbarkeit von 3D Webinhalten unter Anwendung einer explorativen, qualitativen Evaluierung von Webagenturen.
Darauf aufbauend wird das Potential von 3D Webanwendungen aus Nutzerperspektive untersucht, um Zusammenhänge herstellen zu können: einerseits zwischen der Machbarkeit bei der Entwicklung und anderseits die Akzeptanzkriterien beim Rezipienten betreffend.
Die empirische Studie, die mit dem Forschungspartner Bosch für diese Arbeit modelliert wurde, eruiert zum einen, inwiefern 3D im Vergleich zu 2D und 2,5D, und zum anderen WebGL im Vergleich zu bisherigen 3D Webtechnologien die visuelle Wahrnehmung und kognitive Leistungsfähigkeit des Nutzers beeinflusst.
Die Erkenntnisse der Untersuchung zeigen Parallelen zu bestehenden Studien aus web-fernen Bereichen.
Um die Bedeutung von 3D Webanwendungen zur Verbesserung von Entscheidungsprozessen in Stadtplanungsprojekten ableiten zu können, werden Aspekte zur Interaktion und visuellen Wahrnehmung in den speziellen Kontext von Stadtplanungswerkzeugen gebracht. Dabei wird überprüft, ob sich web-basierte 3D Visualisierungen sinnvoll zur Vermittlung städtebaulicher Zusammenhänge einbinden lassen und inwieweit bestehende Projekte, wie in dieser Arbeit beispielhaft das vom Fraunhofer IGD entwickelte Forschungsprojekt urbanAPI, die Technologie WebGL nutzen können.
Vor diesem Hintergrund soll die Arbeit Akzeptanzkriterien und Nutzungsbarrieren von 3D Webanwendungen auf Basis der Technologie WebGL identifizieren, um einen Beitrag zur Machbarkeit von Webanwendungen und zur Entwicklung entsprechender Stadtplanungswerkzeuge zu leisten.
Die thermodynamischen Grundlagen der Hydratation von Hüttensand als Hauptbestandteil von Zementen werden erforscht. Hierbei werden thermodynamische Bildungs- und Reaktionsdaten experimentell bestimmt und berechnet. Darüber hinaus wird der Prozess der Feststoffauflösung von Hüttensand in wässrigen Lösungen untersucht. Lösungs- und Fällungsprozesse werden unter verschiedenen Konditionen gemessen, ausgewertet und diskutiert. Die Ergebnisse werden im weiteren Verlauf zur Bestimmung der Hydratationsgrades in Pasten sowie zum besseren Verständnis in der Wechselwirkung zwischen Hüttensanden und Mahlhilfsstoffen genutzt und angewandt.
The described study aims to find correlations between urban spatial configurations and human emotions. To this end, the authors measured people’s emotions while they walk along a path in an urban area using an instrument that measures skin conductance and skin temperature. The corresponding locations of the test persons were measured recorded by using a GPS-tracker (n=13). The results are interpreted and categorized as measures for positive and negative emotional arousal. To evaluate the technical and methodological process. The test results offer initial evidence that certain spaces or spatial sequences do cause positive or negative emotional arousal while others are relatively neutral. To achieve the goal of the study, the outcome was used as a basis for the study of testing correlations between people’s emotional responses and urban spatial configurations represented by Isovist properties of the urban form. By using their model the authors can explain negative emotional arousal for certain places, but they couldn’t find a model to predict emotional responses for individual spatial configurations.
Broadband electromagnetic frequency or time domain sensor techniques present high potential for quantitative water content monitoring in porous media. Prior to in situ application, the impact of the relationship between the broadband electromagnetic properties of the porous material (clay-rock) and the water content on the frequency or time domain sensor response is required. For this purpose, dielectric properties of intact clay rock samples experimental determined in the frequency range from 1 MHz to 10 GHz were used as input data in 3-D numerical frequency domain finite element field calculations to model the one port broadband frequency or time domain transfer function for a three rods based sensor embedded in the clay-rock. The sensor response in terms of the reflection factor was analyzed in time domain with classical travel time analysis in combination with an empirical model according to Topp equation, as well as the theoretical Lichtenecker and Rother model (LRM) to estimate the volumetric water content. The mixture equation considering the appropriate porosity of the investigated material provide a practical and efficient approach for water content estimation based on classical travel time analysis with the onset-method. The inflection method is not recommended for water content estimation in electrical dispersive and absorptive material. Moreover, the results clearly indicate that effects due to coupling of the sensor to the material cannot be neglected. Coupling problems caused by an air gap lead to dramatic effects on water content estimation, even for submillimeter gaps. Thus, the quantitative determination of the in situ water content requires careful sensor installation in order to reach a perfect probe clay rock coupling.
Die Arbeit »B+cher. Zwischen Lesen und Schauen – Über die narrative Eigenschaft von Typografie« beschreibt ein Spannungsfeld in der Arbeit von Typografinnen und Typografen, das sich zwischen den beiden Gegensätzen verdeutlicht, »Diener des Textes« (Jan Tschichold) zu sein oder aber sein (künstlerischer) Souverän. Es sind Facetten beschreibbar, die sich nicht nur anhand der fertigen Buchobjekte ablesen lassen, sondern den Arbeitsprozess von Kooperationen zwischen Autor*in und Gestalter*in in den Fokus nimmt, welche der Rezeption eines Textes durch seine besondere Gestaltung einen Mehrwert (»+«) verschaffen wollen.
»B+cher« bietet eine nicht nur für Gestalter*innen relevante Übersicht über Möglichkeiten und Chancen der Buchgestaltung, sondern liefert darüber hinaus der Literatur- und Kulturwissenschaft einen Beitrag zum Verständnis von künstlerischen Prozessen beim Schreiben und beim Gestalten von Büchern.
Diese Arbeit beschäftigt sich mit der Nutzung von Worteinbettungen in der automatischen Analyse von argumentativen Texten. Die Arbeit diskutiert wichtige Einstellungen des Einbettungsverfahren sowie diverse Anwendungsmethoden der eingebetteten Wortvektoren für drei Aufgaben der automatischen argumentativen Analyse: Textsegmentierung, Argumentativitäts-Klassifikation und Relationenfindung. Meine Experimente auf zwei Standard-Argumentationsdatensätzen zeigen die folgenden Haupterkenntnisse: Bei der Textsegmentierung konnten keine Verbesserungen erzielt werden, während in der Argumentativitäts-Klassifikation und der Relationenfindung sich kleine Erfolge gezeigt haben und weitere bestimmte Forschungsthesen bewahrheitet werden konnten. In der Diskussion wird darauf eingegangen, warum bei der einfachen Worteinbettung in der argumentativen Analyse sich kaum nutzbare Ergebnisse erzielen lassen konnten, diese sich aber in Zukunft durch erweiterte Worteinbettungsverfahren verbessern können.
Schwerpunkt Medien der Natur
(2016)
Der Schwerpunkt der vorliegenden Ausgabe der ZMK – Medien der Natur – scheint den Medienbegriff aus den Grenzen herauslösen zu wollen, die seine konventionelle Semantik ihm auferlegt hat: aus den Grenzen der Kultur und der Geschichte bzw. der Kulturgeschichte. Man greife zu einer beliebigen älteren oder neueren Mediengeschichte – mag sie mit der Feuertelegraphie in Aischylos’ Agamemnon oder mit den Höhlenmalereien von Lascaux beginnen, eins steht auf jeden Fall fest: Medien sind technische Apparaturen und Installationen, und das heißt von Menschen geschaffene Artefakte, Zeugnisse der menschlichen Kultur. Weder enthalten handelsübliche Mediengeschichten die Beschreibung der Genexprimierung, obwohl Molekularbiologen sich dabei eines explizit medientechnischen Vokabulars wie cut-and-paste oder copy-and-paste bedienen, noch feiern sie die evolutionären Errungenschaften der Tierwelt in Sachen Medientechnik. Dabei ist der Zeichenaustausch zwischen Tieren, der Singvögel etwa oder der in Schwärmen und Völkern lebenden Tiere wie der Bienen, Ameisen und Fische schon lange bekannt und bewundert. In bestimmten Fällen ist der Stand der signal intelligence der Tiere von den Menschen aber auch erst sehr spät, während des Zweiten Weltkriegs, eingeholt worden. Motten aus der Familie der Arctiidae zum Beispiel senden ultrasonische Impulse aus, wenn sie insektivore Fledermäuse detektieren. Die die Motte verfolgende Fledermaus empfängt zwischen den Echos ihres von der Motte reflektierten eigenen Signals die von der Motte gesendeten Signale, und schnappt mithin nach einem akustischen Simulacrum der Motte auf halbem Wege zwischen sich und der eigentlichen Beute. Immerhin hat Michel Serres mit dem Parasiten ein aus der Medientheorie nicht mehr wegzudenkendes Konzept geschaffen – und Parasiten sind auch im biologischen Sinne, etwa als Bakterien, in ersten Ansätzen zum Thema der kulturwissenschaftlichen Medienforschung geworden. Die Operationen der Parasiten können durchaus für die Medienforschung anschluss- und ausbaufähig werden, wie etwa im Konzept des Zwischenwirts. Der Egel Leucochloridium paradoxum zum Beispiel, dessen endlicher Wirt Insekten fressende Vögel sind, muss seinen Zwischenwirt, eine Schnecke, auf die insektivore Vögel keinen Appetit haben, optisch in eine Raupe verwandeln (indem er sich in die Augenfühler der Schnecke schiebt), um an sein Ziel (den Vogelmagen) zu kommen.
Schwerpunkt Verschwinden
(2016)
Warum, so fragt klassischerweise die Ontologie, ist überhaupt etwas und nicht vielmehr nichts? Die dieser Frage zu Grunde liegende Dichotomie von etwas und nichts, Sein und Nichtsein, ist aber selbst voraussetzungsreich und keineswegs zwingend selbstverständlich. Sie ist schon als Frage selbst etwas, das auch nicht sein könnte. Und von dieser Möglichkeit ist schon häufiger Gebrauch gemacht worden. Die scharfe Dichotomie von Sein und Nichtsein ist in der Antike etwa vom Atomismus Demokrits und Epikurs, vom Heraklitismus und den Eleaten, in der Moderne dann unter anderem von Lebenswissenschaften, Vitalismus, Historischem Materialismus, Phänomenologie und Ästhetik unterlaufen worden. Diese und andere Sichtweisen ersetzen die Alternative von Sein und Nichtsein durch die Frage nach dem Werden und Gewordensein, nach den Erscheinungsweisen und dem Erscheinen, nach der Produktion und dem Gemachtsein dessen, was ist (oder nicht ist). Damit öffnen sie das Feld für eine nachfolgende Umstellung der ontologischen Frage: Wie kommt das, was ist, zu Stande, wie ist es zum Sein gelangt, geworden, verfertigt, wie und wodurch zur Erscheinung gekommen? Gerade die letztgenannte Wendung bringt dann ganz unverstellt Medien und Medientechniken und deren Handhabung und Verfügung zur Sprache. Medien als Werkzeuge des Eintretens, Erscheinens oder Erscheinenlassens von etwas zu begreifen, ist demnach eine gängige und überzeugende Konzeption. Ebenso kann das Medium auch das Material sein, in dem sich das Eintreten und Heranbilden vollzieht und das an diesen Prozessen noch stets Anteil hat und ihnen mitwirkt.