Refine
Document Type
- Article (35)
- Doctoral Thesis (20)
- Book (6)
- Bachelor Thesis (3)
- Conference Proceeding (3)
- Periodical (2)
- Working Paper (1)
Institute
- Institut für Strukturmechanik (ISM) (18)
- Professur Stochastik und Optimierung (11)
- Junior-Professur Computational Architecture (7)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (6)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (6)
- F. A. Finger-Institut für Baustoffkunde (FIB) (5)
- Professur Denkmalpflege und Baugeschichte (4)
- An-Institute (2)
- Materialforschungs- und -prüfanstalt an der Bauhaus-Universität (2)
- Professur Baubetrieb und Bauverfahren (2)
Keywords
- Angewandte Mathematik (11)
- Stochastik (11)
- Strukturmechanik (11)
- Architektur (2)
- BIM (2)
- Building Information Modeling (2)
- Controlling (2)
- Entscheidungsunterstützung (2)
- Erdbau (2)
- Film (2)
Year of publication
- 2016 (70) (remove)
Diese Arbeit beschäftigt sich mit der Nutzung von Worteinbettungen in der automatischen Analyse von argumentativen Texten. Die Arbeit diskutiert wichtige Einstellungen des Einbettungsverfahren sowie diverse Anwendungsmethoden der eingebetteten Wortvektoren für drei Aufgaben der automatischen argumentativen Analyse: Textsegmentierung, Argumentativitäts-Klassifikation und Relationenfindung. Meine Experimente auf zwei Standard-Argumentationsdatensätzen zeigen die folgenden Haupterkenntnisse: Bei der Textsegmentierung konnten keine Verbesserungen erzielt werden, während in der Argumentativitäts-Klassifikation und der Relationenfindung sich kleine Erfolge gezeigt haben und weitere bestimmte Forschungsthesen bewahrheitet werden konnten. In der Diskussion wird darauf eingegangen, warum bei der einfachen Worteinbettung in der argumentativen Analyse sich kaum nutzbare Ergebnisse erzielen lassen konnten, diese sich aber in Zukunft durch erweiterte Worteinbettungsverfahren verbessern können.
In meiner theoretisch_praktischen Arbeit befasse ich mich mit der verletzenden Kraft von Sprache jenseits direkter Adressierung.
Es wird der Frage nachgegangen, ob und wie auch da Verletzung durch Sprache stattfindet, wo keine offensichtliche Diskriminierung erfolgt, sondern subtilere Wirkmächte der Performativität am Werk sind. Sprachliche Benenn- und Beweisbarkeit verletzenden Sprechens werden dabei in Frage gestellt und einem Wahrnehmen und Begegnen Vorrang gegeben.
Sowohl im eher theoretischen Teil, dem „Fragment I: 943 Fragen zur sprachlichen Gewalt“, als auch im vorwiegend praktischen Teil, dem „Fragment II: Untersuchungen und Zwischennutzungen“, wird eine Perspektive auf kritische Handlungsfähigkeit in Bezug auf Sprache und Gewalt eröffnet. Es wird ein Verständnis von Verantwortung als ein Affekt und zugleich Ort der Kritik zur Diskussion gestellt und befragt. Dabei versuche ich, über die dichotome Verfestigung von „Wir und die Anderen“ hinauszugelangen und dabei ein WIR, das nicht vom IHR getrennt ist, als WIHR in den Blick zu nehmen. Dieses WIHR muss notwendigerweise offen und flexibel bleiben. Es soll eine Art Möglichkeitsraum schaffen, der nicht neu geordnet, sondern im beständigen Fragen einer abschließenden Antwort entzogen wird.
Eine Annäherung in vor allem zeichnerischen und auditiven Untersuchungen sowie 943 Fragen.
Versatzstücke
(2016)
Bei studentischen Entwürfen, die sich mit dem Bauen im Bestand befassen, zeigt sich in jüngerer Zeit ein gestiegenes Interesse nicht nur an denkmalpflegerischen Fragen, sondern auch am historischen Material als solchem. Man schätzt es im Sinne eines begrenzt verfügbaren, daher wertvollen Reservoirs, aus dem man auf vielfältige Weise schöpfen kann, z. B. durch Integration von Recycling-Materialien oder aber auch durch Anleihen an den historischen Formenapparat. Dabei bedient man sich einer alten Methode: des Arbeitens mit Versatzstücken.
Per Definition ist ein Versatzstück der bewegliche, beliebig zu versetzende Teil einer Bühnendekoration. Im übertragenen Sinne ist damit jedoch ein künstlerisches Verfahren gemeint, nämlich Teile eines Werkes in einem anderen Kontext – einem neuen Werk – schöpferisch wiederzuverwenden. Dieses Einfügen am neuen Ort ist in der Architektur meist mit einem räumlichen „Versetzen“ verbunden. Stets jedoch geht es auch um eine zeitliche Differenz: Denn das Versatzstück stellt einerseits den Bezug zu einem älteren Kontext her und veranschaulicht andererseits den Bruch, das Anders- und Fremdartige. Daher wohnt einer derartigen Zwiesprache zwischen Alt und Neu häufig ein ästhetisch bereicherndes, zugleich ein narratives Moment inne.
Vom kunsthistorischen Begriff der „Spolie“ unterscheidet sich derjenige des „Versatzstückes“ durch seine größere Offenheit für verschiedene Interpretationen, wie die Beiträge dieses Heftes belegen. Allen gemeinsam ist die Frage nach den Bedeutungen, die man den jeweiligen Relikten beimisst: Sind derartige Wiederverwendungen pragmatisch oder programmatisch intendiert? Stehen ökonomische, politisch-ideologische, religiöse oder künstlerische Motive dahinter? Die Beiträge des Heftes zeigen, dass es sich wohl meist um eine Gemengelage handelt – mit allerdings unterschiedlichen Gewichtungen je nach Bauaufgabe, Anspruchsniveau und Zeitgeist.
In der Gegenwart ist ein Arbeiten mit Versatzstücken u. a. ökologisch, vor allem aber wohl ästhetisch motiviert. Mit dem auf seine Verletzlichkeit verweisenden Fragment, mit dem durch Altersspuren angereicherten Relikt lassen sich Qualitäten des Poetischen erzeugen, die wir in einer weitgehend durchrationalisierten Welt zu schätzen wissen. In Reaktion auf die Spezifik des wiederverwendeten Materials scheint ein von normativen Vorstellungen abweichendes Arbeiten hier nicht nur erlaubt, sondern stellt sich oft als ein Gewinn heraus.
Purpose of this study is to evaluate safety impact of the deceleration lane at the Upstream Zone of at-grade U-turns on 4-lane divided Thai highways. A substantial speed reduction is required by vehicles for diverging and making U-turn, and the deceleration lanes are provided for this purpose. These lanes are also providing a storage space for the U-turning vehicles to avoid unnecessary blockage of through lanes and reduce the potential of rear-end collisions. The safety at the U-turn is greatly influenced by the proper or improper use of the deceleration lanes. Subject to their length, full or partial speed adjustment can occur within the deceleration lane also the road users’ behavior is influenced. To assess the safety impact, the four groups of U-turns with the varying length of deceleration lanes were identified. Owing to limitation of availability and reliability of road crash data in Thailand, widely accepted Traffic Conflict Technique (TCT) was used as an alternative and proactive methodology. The U-turns’ geometric data, traffic conflicts and volume data were recorded in the field at 8 locations, 8 hours per location. Severity Conflict Rate (SCR) was assessed by applying a weighing factor (based on the severity grades according to the Czech TCT) to the observed conflicts related to the conflicting traffic volumes. A comparative higher value of SCR represents a lower level of safety. According to the results, increase in the functional length of the deceleration lane yields a lower value of SCR and a higher level of the road safety.
This thesis suggests cooperation as a design paradigm for human-computer interaction. The basic idea is that the synergistic co-operation of interfaces through concurrent user activities enables increased interaction fluency and expressiveness. This applies to bimanual interaction and multi-finger input, e.g., touch typing, as well as the collaboration of multiple users. Cooperative user interfaces offer more interaction
flexibility and expressivity for single and multiple users.
Part I of this thesis analyzes the state of the art in user interface design. It explores limitations of common approaches and reveals the crucial role of cooperative action in several established user interfaces and research prototypes. A review of related research in psychology and human-computer interaction offers insights to the cognitive, behavioral, and ergonomic foundations of cooperative user interfaces. Moreover, this thesis suggests a broad applicability of generic cooperation patterns and contributes three high-level design principles.
Part II presents three experiments towards cooperative user interfaces in detail. A study on desktop-based 3D input devices, explores fundamental benefits of cooperative bimanual input and the impact of interface design on bimanual cooperative behavior. A novel interaction technique for multitouch devices is presented that follows the paradigm of cooperative user interfaces and demonstrates advantages over the status quo. Finally, this thesis introduces a fundamentally new display technology that provides up to six users with their individual perspectives of a shared 3D environment. The system creates new possibilities for the cooperative interaction of
multiple users.
Part III of this thesis builds on the research results described in Part II, in particular, the multi-user 3D display system. A series of case studies in the field of collaborative virtual reality provides exemplary evidence for the relevance and applicability of the suggested design principles.
Urban and building energy simulation models are usually driven by typical meteorological year (TMY) weather data often in a TMY2 or EPW format. However, the locations where these historical datasets were collected (usually airports) generally do not represent the local, site specific micro-climates that cities develop. In this paper, a humid sub-tropical climate context has been considered. An idealised “urban unit model” of 250 m radius is being presented as a method of adapting commonly available weather data files to the local micro-climate. This idealised “urban unit model” is based on the main thermal and morphological characteristics of nine sites with residential/institutional (university) use in Hangzhou, China. The area of the urban unit was determined by the region of influence on the air temperature signal at the centre of the unit. Air temperature and relative humidity were monitored and the characteristics of the surroundings assessed (eg green-space, blue-space, built form). The “urban unit model” was then implemented into micro-climatic simulations using a Computational Fluid Dynamics – Surface Energy Balance analysis tool (ENVI-met, Version 4). The “urban unit model” approach used here in the simulations delivered results with performance evaluation indices comparable to previously published work (for air temperature; RMSE <1, index of agreement d > 0.9). The micro-climatic simulation results were then used to adapt the air temperature and relative humidity of the TMY file for Hangzhou to represent the local, site specific morphology under three different weather forcing cases, (ie cloudy/rainy weather (Group 1), clear sky, average weather conditions (Group 2) and clear sky, hot weather (Group 3)). Following model validation, two scenarios (domestic and non-domestic building use) were developed to assess building heating and cooling loads against the business as usual case of using typical meteorological year data files. The final “urban weather projections” obtained from the simulations with the “urban unit model” were used to compare the degree days amongst the reference TMY file, the TMY file with a bulk UHI offset and the TMY file adapted for the site-specific micro-climate (TMY-UWP). The comparison shows that Heating Degree Days (HDD) of the TMY file (1598 days) decreased by 6 % in the “TMY + UHI” case and 13 % in the “TMY-UWP” case showing that the local specific micro-climate is attributed with an additional 7 % (ie from 6 to 13 %) reduction in relation to the bulk UHI effect in the city. The Cooling Degree Days (CDD) from the “TMY + UHI” file are 17 % more than the reference TMY (207 days) and the use of the “TMY-UWP” file results to an additional 14 % increase in comparison with the “TMY + UHI” file (ie from 17 to 31 %). This difference between the TMY-UWP and the TMY + UHI files is a reflection of the thermal characteristics of the specific urban morphology of the studied sites compared to the wider city. A dynamic thermal simulation tool (TRNSYS) was used to calculate the heating and cooling load demand change in a domestic and a non-domestic building scenario. The heating and cooling loads calculated with the adapted TMY-UWP file show that in both scenarios there is an increase by approximately 20 % of the cooling load and a 20 % decrease of the heating load. If typical COP values for a reversible air-conditioning system are 2.0 for heating and 3.5 for cooling then the total electricity consumption estimated with the use of the “urbanised” TMY-UWP file will be decreased by 11 % in comparison with the “business as usual” (ie reference TMY) case. Overall, it was found that the proposed method is appropriate for urban and building energy performance simulations in humid sub-tropical climate cities such as Hangzhou, addressing some of the shortfalls of current simulation weather data sets such as the TMY.
Inhaltliche Struktur:
Theoretischer Teil: Um Kulturtechniken des künstlerischen Ausdruckes, und damit den Bezug zwischen Kunst und Medientechnologie zu ergründen, wurde das Verhältnis zwischen dem Betrachter und dem Betrachteten erforscht. Begriffe wie Originalität, Repräsentation, Imitation sowie Aneignung und Rezeption kommen an historischen Beispielen zur Diskussion.
Praktischer Teil: Mit zwei Ausstellungen (Malerei, Installation) wurden verschiedene Modelle des Sehens problematisiert, um kulturelle und historische Variablen zu ermitteln, die visuelle Kultur begründen. Außerdem wurden die Unterschiede zwischen Beobachter und Betrachter/Zuschauer in Ausstellungssituationen hinterfragt.
Kurzfassung:
Medientechnologie hat sich selbst zu einer Kunstform entwickelt. Sie kann Künstler dabei unterstützen, ihre Ideen handwerklich umzusetzen (Beispiel: Camera Obscura) und zu reflektieren. Dabei geht es um mehr als um technische Hilfmittel für den künstlerischen Ausdruck. Wird die Beziehung zwischen Betrachter und Betrachtetem als eine Transaktion gesehen, in der beide Begriffe gleichermaßen aufs Spiel gesetzt werden, dann ist es notwendig eine Visualität zu bestimmen, an der der Betrachter (im Sinne von Jonathan Crary) aktiv teilnimmt. Das Sehen darf nicht als absolute Erfahrung verstanden werden, denn einzeln analysiert – ohne Einbeziehung anderer Sinneswahrnehmungen und deren mediale Erweiterungen – führt es zu keinem adäquaten Verständnis davon, wie Bedeutungen produziert werden. Daraus ergibt sich die Forschungsfrage, wie die künstlerische Reaktion auf die im 19. Jahrhundert aufstrebenden Fotografie die Ausdrucksformen beeinflusste und ob sich die gegenseitige Abhängigkeit von Malerei und Fotografie wissenschaftlich-künstlerisch rekonstruieren lässt.
Die theoretische Referenz für diese Forschung bildeten Theorieansätze nicht der Kunstgeschichte, sondern der „Visual Culture Studies“, konkret: Martin Jay („Scopic Regimes of Modernity“), Jonathan Crary („Techniques of the Observer“) und Rosalind Krauss („Originality“).
Dazu wurde die Rezeption der aufkommenden Fotografie in der künstlerischen Produktion beispielhaft untersucht, wobei mit Eugène Delacroix, Gustave Caillebotte sowie dem künstlerischen Dialog zwischen Henri Matisse und Brassai die Problematik herausgearbeitet wurde, mit der sich die bildende Kunst im Lauf jener Jahrzehnte, in denen die Fotografie sich etabliert hat, konfrontiert sah. Sie war eine medientechnische Neuheit mit älteren Wurzeln und diente der Malerei als Hilfsmittel (Camera Obscura) und hat durch ihr technische Potenzial dennoch das Verständnis von Kunst radikal verändert: sie löste das Ideal einer bestimmten Maltechnik ab, die sich mit dem Verbergen des Pinselstriches verband, und bedeutete in diesem gewissen Sinn das „Ende der Kunst“ (nach Paul Delaroche).
Bis in die heutige Kunstproduktion zieht sich die Frage, was nach dem Ende der Perfektionierung von Reproduktion durch ihre Übernahme mittels medientechnischer Apparatur, die nun selbst zum Ausdruck strebt, überhaupt noch ein „Kunstwerk“ ist oder sein kann. Technisch gestützte Formen der Aneignung und Imitation stellen das klassische Wertemodell der meisterlich ausgeführten Repräsentation von Wirklichkeit in Frage, obwohl „Originalität“ angesichts der Flut von Reproduktionen doch immer noch - oder gerade deswegen - eine Wertschätzung erfährt.
Daher wurden dann auch im künstlerischen Teil verschiedene Modelle des Sehens getestet, um kulturelle und historische Variablen zu ermitteln, die visuelle Kultur beeinflussen und festlegen. Dabei wurde vor allem auch die Rolle der Beobachter reflektiert - die anders als bei Unterhaltungsmedien - in Kunstkontexten eben keine passiven Zuschauer sind. Was den Künstler, und was den Betrachter von Kunst definiert, lässt sich gleichwohl weder auf ein bestimmte Sinnlichkeit noch eine bestimmte Medientechnologie reduzieren.
Wie schon nach dem Aufkommen der Fotografie werden Künstler weiterhin auf der Suche nach neuen Ausdrucksformen sein, um andere Weltwahrnehmungen und neue, andere Perspektiven menschlicher Existenz zu erlangen. Mediale Technologien haben sie dabei immer schon unterstützt. Aus meiner Untersuchung schließe ich, dass neue Technologien Kunst nicht definitv beeinflussen, wohl aber ihren Entstehungsprozess verändern und beeinflussen können. Die Frage, wie das geschieht und welche Effekte es zeitigt, bedarf einer stets erneuerten Verhandlung.
Daraus folgt die Schlussfolgerung, dass man von Künstlern verlangen kann oder sogar muss, sich vor der Wirklichkeit der Technologie nicht zurückzuziehen, sondern sich medientechnische Kompetenzen anzueignen und sich aktiv am Diskurs um neue Technologien zu beteiligen.
Szenarien der Moderne
(2016)
Wenige Begriffe vermögen so viel Faszination und Unbehagen gleichzeitig auszulösen wie die Moderne. Der Begriff birgt so viele Unschärfen, dass man eigentlich gut daran tun würde, ihn zu vermeiden. Allein die Frage, was modern sei, oder wann die Moderne begann, lässt sich nicht eindeutig beantworten. Vielleicht am meisten Kontur besitzt die Moderne als Epochenbegriff der Geschichtswissenschaften, wobei auch dort zwischen ökonomischen, politischen und weiteren Modernen unterschieden wird. Geradezu inflationär ist die Verwendung in der Kunsthistoriografie: Über weite Strecken des 20. Jahrhunderts wurde die Moderne als hauptsächlich ästhetisches Phänomen verstanden und tradiert, bis zur Konstruktion des längst relativierten Mythos der Begründung der Moderne allein durch das Neue Bauen oder gar das Bauhaus.
Spätestens die Postmoderne hat den Begriff endgültig diversifiziert und dazu beigetragen, dass lange „als antimoderne Rückfälle" (G. Weckerlin) beschriebene Strömungen in einer erweiterten Sichtweise als Phänomene modernen Kunstschaffens wahrgenommen werden, wie etwa die Heimatschutzarchitektur oder die Monumentalbaukunst im Nationalsozialismus. Angesichts des entstandenen Spektrums ist heute von einem pluralistischen Begriff der Moderne auszugehen. Für die zweite Jahrhunderthälfte spricht man von Nachkriegsmoderne, Spätmoderne und Postmoderne. Stilistisch decken diese Varianten ein breites Feld ab – vom Funktionalismus über Strukturalismus, Brutalismus bis zum postmodernen „anything goes“. Dass diese Strömungen in ihrer Begriffsdefinition sowie in der Abgrenzung zueinander teils große Ungenauigkeiten aufweisen, verdeutlicht der Begriff der Nachkriegsmoderne, der sich auf das Ende des Zweiten Weltkrieges bezieht und dabei andere Konflikte außer Acht lässt. In manchen osteuropäischen Ländern spricht man daher eher von Ostmoderne oder Sozmoderne.
Unabhängig von der Wirkungsweise der Begriffe ragt die Moderne in verschiedensten Szenarien in unser alltägliches Leben hinein. Dieses Heft zeigt die Vielfalt solcher Situationen an verschiedenen Orten: bei der Betrachtung von Fassaden im Straßenraum, im Museum für Gegenwartskunst, an der Bushaltestelle oder beim Stadtlauf. Die Moderne ist so allgegenwärtig, dass ihre Werte, aber auch ihre Verletzlichkeit gerade deshalb oft nicht erkannt und erfasst werden. Mit dem Problem einer voreingenommenen Wahrnehmung und fehlenden Auseinandersetzung kämpfen zurzeit viele Denkmalämter und bürgerschaftliche Initiativen, die sich zunehmend mit den Baubeständen der Moderne beschäftigen. Das vorliegende Heft bildet eine Spurensuche nach verschiedenen Szenarien
der Moderne ab, die ganz bewusst abseits der breiten Pfade verläuft. Dabei versucht das Heft, die schillernden Facetten und die trotz allem große Bindekraft des Moderne-Begriffes aus verschiedenen Perspektiven zu beleuchten und zu ergründen.
In this study, the behavior of a widely graded soil prone to suffusion and necessity of homogeneity quantifi cation for such a soil in internal stability considerations are discussed. With the help of suffusion tests, the dependency of the particle washout to homogeneity of sample is shown. The validity of the great infl uence of homogeneity on suffusion processes by the presentation of arguments and evidences are established. It is emphasized that the internal stability of a widely graded soil cannot be directly correlated to the common geotechnical parameters such as dry density or permeability. The initiation and propagation of the suffusion processes are clearly a particle scale phenomenon, so the homogeneity of particle assemblies (micro-scale) has a decisive effect on particle rearrangement and washout processes. It is addressed that the guidelines for assessing internal stability lack a fundamental, scientifi c basis for quantifi cation of homogeneity. The observation of the segregation processes within the sample in an ascending layered order (for downwards fl ow) inspired the author to propose a new packing model for granular materials which are prone to internally instability.
It is shown that the particle arrangement, especially the arrangement of soil skeleton particles or the so-called primary fabric has the main role in suffusiv processes. Therefore, an experimental approach for identifi cation of the skeleton in the soil matrix is proposed. 3D models of Sequential Fill Tests using Discrete Element Method (DEM) and 3D models of granular packings for relative, stochastically and ideal homogeneous particle assemblies were generated, and simulations have been carried out.
Based on the numerical investigations and in dependency on the soil skeleton behavior, an approach for measurement of relevant scale, the so-called Representative Elementary Volume (REV) for homogeneity investigation is proposed. The development of a new testing method for quantifi cation of homogeneity is introduced (in-situ). An approach for quantifi cation of homogeneity in numerically or experimentally generated packings (samples) based on image processing method of MATLAB has been introduced. A generalized experimental method for assessment of internal stability for widely graded soils with dominant coarse matrix is developed, and a new suffusion criterion based on ideal homogeneous internally stable granular packing is designed.
My research emphasizes that in a widely graded soils with dominant coarse matrix, the soil fractions with diameters bigger than D60 build essentially the soil skeleton. The mass and spatial distribution of these fractions governs the internal stability, and the mass and distribution of the fi ll fractions are a secondary matter. For such a soil, the homogeneity of the skeleton must be cautiously measured and verified.
Briefly, the two basic questions that this research is supposed to answer are:
1. Howmuch fiber is needed and how fibers should be distributed through a fiber reinforced composite (FRC) structure in order to obtain the optimal and reliable structural response?
2. How do uncertainties influence the optimization results and reliability of the structure?
Giving answer to the above questions a double stage sequential optimization algorithm for finding the optimal content of short fiber reinforcements and their distribution in the composite structure, considering uncertain design parameters, is presented. In the first stage, the optimal amount of short fibers in a FRC structure with uniformly distributed fibers is conducted in the framework of a Reliability Based Design Optimization (RBDO) problem. Presented model considers material, structural and modeling uncertainties. In the second stage, the fiber distribution optimization (with the aim to further increase in structural reliability) is performed by defining a fiber distribution function through a Non-Uniform Rational BSpline (NURBS) surface. The advantages of using the NURBS surface as a fiber distribution function include: using the same data set for the optimization and analysis; high convergence rate due to the smoothness of the NURBS; mesh independency of the optimal layout; no need for any post processing technique and its non-heuristic nature. The output of stage 1 (the optimal fiber content for homogeneously distributed fibers) is considered as the input of stage 2. The output of stage 2 is the Reliability Index (b ) of the structure with the optimal fiber content and distribution.
First order reliability method (in order to approximate the limit state function) as well as different material models including Rule of Mixtures, Mori-Tanaka, energy-based approach and stochastic multi-scales are implemented in different examples. The proposed combined model is able to capture the role of available uncertainties in FRC structures through a computationally efficient algorithm using all sequential, NURBS and sensitivity based techniques. The methodology is successfully implemented for interfacial shear stress optimization in sandwich beams and also for optimization of the internal cooling channels in a ceramic matrix composite.
Finally, after some changes and modifications by combining Isogeometric Analysis, level set and point wise density mapping techniques, the computational framework is extended for topology optimization of piezoelectric / flexoelectric materials.
Die vorliegende Arbeit beschäftigt sich mit dem Thema Stadthotels in Deutschland zwischen Energieeffizienz und Wirtschaftlichkeit - Studie auf Grundlagen der EnEV-Anforderungen. Die Arbeit setzt sich mit einer qualitativen und quantitativen Analyse über die Energieeffizienz auf Grundlagen der EnEV-Anforderungen und deren Wirtschaftlichkeit bei Stadthotels in Deutschland auseinander. Die Analyse wurde anhand von verschiedenen Untersuchungen bei Hotels aufgebaut. Diese umfassen empirische, energetische und wirtschaftliche Untersuchungen. Die durchgeführten Untersuchungen kommen schließlich zu eindeutigen Ergebnissen auf verschiedenen Ebenen. Im Ergebnis wird deutlich, dass die Optimierung der Gebäudetechnik sowie auch die Verbesserung der energetischen Qualität der Gebäudehülle der Hotels bedeutende Einflussfaktoren zur Steigerung der Energieeffizienz darstellen. Dabei ist jedoch festzuhalten, dass sich die Optimierung der Gebäudetechnik der Hotels insbesondere im Bereich der Lüftungs- und Klimatechnik als besonders wirksam erwiesen hat. Die Effektivität dieser Maßnahmen konnte sowohl in Hinsicht auf die Steigerung der Energieeffizienz als auch in Bezug auf die Wirtschaftlichkeit bewiesen werden.
In der Arbeit wurde eine Methode für eine kulturübergreifende Vergleichsstudie zwischen China und dem Westen erarbeitet. Diese Methode ermöglicht Unternehmensentwicklung in China aus dem eignen historischen Zusammenhang zu verstehen, statt nur aus einem rein theoretischen Blickwinkel. Weil heutige wissenschaftliche Theorien meist aus der westlichen Kultur stammen und mit Wertvorstellungen sowie mit Begriffen aus dem westlichen Kulturkreis verbunden sind, müssen sie im historischen Kontext des westlichen Kulturkreises betrachtet werden.
Im ersten Teil der Arbeit wird der westliche moderne Staat als Untersuchungsbegriff herangezogen, seine Entstehungsbedingungen und seine Verwendungsart und -weise, besonders wie er die ökonomische Theorie und die Praxis im Westen beeinflusst, dabei spielt das moderne Staatsprinzip eine wichtige Rolle. Die Neue Institutionenökonomik dient als theoretischer Referenzrahmen für diese Arbeit. Mittels einer theoretischen Erweiterung mit dem westlichen modernen Staatsverständnis werden wichtige westliche konstitutionelle Institutionen analysiert, da sie die Handlungsrechte und -pflichten der Bürger sowie die Bildung der kapitalistischen Unternehmung beeinflussen.
Im zweiten Teil der Arbeit wird das chinesische Staatsverständnis analysiert – vom traditionellen „Tianxia“ zum „modernen“ Staat. Mithilfe abgeleiteter Kriterien wird die chinesische Unternehmensentwicklung in drei zeitlichen Querschnittsphasen betrachtet, wie sich chinesische Unternehmen vom traditionellen bis zum „modernen“ entwickelten. Als Fallbeispiel werden chinesische Buchdruckunternehmen herangezogen. Zuerst wird das Buchdrucksystem sowie seine Veränderungen in drei Zeitphase betrachtet. Dabei wird auf die Aspekte Buchdruckorganisation, staatliche Verwaltung, wie Zensur und Urheberrecht sowie Lehrmaterial fokussiert, die für die Buchdruckunternehmensentwicklung von Bedeutung sind und ein System darstellen. Aus Mikrosicht werden drei Buchdruckunternehmen in den Zeitphasen analysiert. Im Ergebnis der Arbeit werden Schlussfolgerungen abgeleitet, bspw. dass Modernisierung als Aktualisierung verstanden werden sollte, aber nicht als Zerstörung.
In the Space Syntax community, the standard tool for computing all kinds of spatial graph network measures is depthmapX (Turner, 2004; Varoudis, 2012). The process of evaluating many design variants of networks is relatively complicated, since they need to be drawn in a separated CAD system, exported and imported in depthmapX via dxf file format. This procedure disables a continuous integration into a design process. Furthermore, the standalone character of depthmapX makes it impossible to use its network centrality calculation for optimization processes. To overcome this limitations, we present in this paper the first steps of experimenting with a Grasshopper component (reference omitted until final version) that can access the functions of depthmapX and integrate them into Grasshopper/Rhino3D. Here the component is implemented in a way that it can be used directly for an evolutionary algorithm (EA) implemented in a Python scripting component in Grasshopper
Die Ph.D.-Arbeit Soziales Grafikdesign – eine Frage der Haltung hinterfragt den Einfluss und die Wirkungsmacht, den visuelle Kommunikationsgestaltung auf den Betrachter und im weiteren Sinne auf die Gesellschaft im Ganzen haben können. Aufbauend auf den Erkenntnissen über die Wirkungsmacht wird untersucht, wie eine bewusste und sozial verantwortliche Haltung im Grafikdesign aussehen könnte.
Viele Grafikdesigner sind in der Werbebranche tätig und haben den Auftrag, ganz bewusst manipulativ und wirkungsstark Informationen visuell zu übersetzen, um den Betrachter zu einer Handlungsfolge zu animieren. Die bewusste Reflexion der eigenen Rolle als Designer in diesem Prozess führt immer wieder zu den Fragen nach der Verantwortlichkeit des Gestalters und auch dazu, wie der Gestalter die Potenziale der Kommunikationsgestaltung in anderen Bereichen, wie z. B. in städtischen Problemsituationen, für ein soziales Miteinander einsetzen kann.
Das Erzeugen räumlicher Konfigurationen ist eine zentrale Aufgabe im architektonischen bzw. städtebaulichen Entwurfsprozess und hat zum Ziel, eine für Menschen angenehme Umwelt zu schaffen. Der Geometrie der entstehenden Räume kommt hierbei eine zentrale Rolle zu, da sie einen großen Einfluss auf das Empfinden und Verhalten der Menschen ausübt und nur noch mit großem Aufwand verändert werden kann, wenn sie einmal gebaut wurde. Die meisten Entscheidungen zur Festlegung der Geometrie von Räumen werden während eines sehr kurzen Zeitraums (Entwurfsphase) getroffen. Fehlentscheidungen die in dieser Phase getroffen werden haben langfristige Auswirkungen auf das Leben von Menschen, und damit auch Konsequenzen auf ökonomische und ökologische Aspekte.
Mittels computerbasierten Layoutsystemen lässt sich der Entwurf räumlicher Konfigurationen sinnvoll unterstützen, da sie es ermöglichen, in kürzester Zeit eine große Anzahl an Varianten zu erzeugen und zu überprüfen. Daraus ergeben sich zwei Vorteile. Erstens kann die große Menge an Varianten dazu beitragen, bessere Lösungen zu finden. Zweitens kann das Formalisieren von Bewertungskriterien zu einer größeren Objektivität und Transparenz bei der Lösungsfindung führen. Um den Entwurf räumlicher Konfigurationen optimal zu unterstützen, muss ein Layoutsystem in der Lage sein, ein möglichst großes Spektrum an Grundrissvarianten zu erzeugen (Vielfalt); und zahlreiche Möglichkeiten und Detaillierungsstufen zur Problembeschreibung (Flexibilität), sowie Mittel anzubieten, mit denen sich die Anforderungen an die räumliche Konfiguration adäquat beschreiben lassen (Relevanz). Bezüglich Letzterem spielen wahrnehmungs- und nutzungsbezogene Kriterien (wie z. B. Grad an Privatheit, Gefühl von Sicherheit, Raumwirkung, Orientierbarkeit, Potenzial zu sozialer Interaktion) eine wichtige Rolle.
Die bislang entwickelten Layoutsysteme weisen hinsichtlich Vielfalt, Flexibilität und Relevanz wesentliche Beschränkungen auf, welche auf eine ungeeignete Methode zur Repräsentation von Räumen zurückzuführen sind. Die in einem Layoutsystem verwendeten Raumrepräsentationsmethoden bestimmen die Möglichkeiten zur Formerzeugung und Problembeschreibung wesentlich. Sichtbarkeitsbasierte Raumrepräsentationen (Sichtfelder, Sichtachsen, Konvexe Räume) eignen sich in besonderer Weise zur Abbildung von Räumen in Layoutsystemen, da sie einerseits ein umfangreiches Repertoire zur Verfügung stellen, um räumliche Konfigurationen hinsichtlich wahrnehmungs- und nutzungsbezogener Kriterien zu beschreiben. Andererseits lassen sie sich vollständig aus der Geometrie der begrenzenden Oberflächen ableiten und sind nicht an bestimmte zur Formerzeugung verwendete geometrische Objekte gebunden.
In der vorliegenden Arbeit wird ein Layoutsystem entwickelt, welches auf diesen Raumrepräsentationen basiert. Es wird ein Evaluationsmechanismus (EM) entwickelt, welcher es ermöglicht, beliebige zweidimensionale räumliche Konfigurationen hinsichtlich wahrnehmungs- und nutzungsrelevanter Kriterien zu bewerten. Hierzu wurde eine Methodik entwickelt, die es ermöglicht automatisch Raumbereiche (O-Spaces und P-Spaces) zu identifizieren, welche bestimmte Eigenschaften haben (z.B. sichtbare Fläche, Kompaktheit des Sichtfeldes, Tageslicht) und bestimmte Relationen zueinander (wie gegenseitige Sichtbarkeit, visuelle und physische Distanz) aufweisen. Der EM wurde mit Generierungsmechanismen (GM) gekoppelt, um zu prüfen, ob dieser sich eignet, um in großen Variantenräumen nach geeigneten räumlichen Konfigurationen zu suchen. Die Ergebnisse dieser Experimente zeigen, dass die entwickelte Methodik einen vielversprechenden Ansatz zur automatisierten Erzeugung von räumlichen Konfigurationen darstellt: Erstens ist der EM vollständig vom GM getrennt, wodurch es möglich ist, verschiedene GM in einem Entwurfssystem zu verwenden und somit den Variantenraum zu vergrößern (Vielfalt). Zweitens erlaubt der EM die Anforderungen an eine räumliche Konfiguration flexibel zu beschreiben (unterschiedliche Maßstäbe, unterschiedlicher Detaillierungsgrad). Letztlich erlauben die verwendeten Repräsentationsmethoden eine Problembeschreibung vorzunehmen, die stark an der Wirkung des Raumes auf den Menschen orientiert ist (Relevanz).
Die in der Arbeit entwickelte Methodik leistet einen wichtigen Beitrag zur Verbesserung evidenzbasierter Entwurfsprozesse, da sie eine Brücke zwischen der nutzerorientierten Bewertung von räumlichen Konfigurationen und deren Erzeugung schlägt.
Schwerpunkt Verschwinden
(2016)
Warum, so fragt klassischerweise die Ontologie, ist überhaupt etwas und nicht vielmehr nichts? Die dieser Frage zu Grunde liegende Dichotomie von etwas und nichts, Sein und Nichtsein, ist aber selbst voraussetzungsreich und keineswegs zwingend selbstverständlich. Sie ist schon als Frage selbst etwas, das auch nicht sein könnte. Und von dieser Möglichkeit ist schon häufiger Gebrauch gemacht worden. Die scharfe Dichotomie von Sein und Nichtsein ist in der Antike etwa vom Atomismus Demokrits und Epikurs, vom Heraklitismus und den Eleaten, in der Moderne dann unter anderem von Lebenswissenschaften, Vitalismus, Historischem Materialismus, Phänomenologie und Ästhetik unterlaufen worden. Diese und andere Sichtweisen ersetzen die Alternative von Sein und Nichtsein durch die Frage nach dem Werden und Gewordensein, nach den Erscheinungsweisen und dem Erscheinen, nach der Produktion und dem Gemachtsein dessen, was ist (oder nicht ist). Damit öffnen sie das Feld für eine nachfolgende Umstellung der ontologischen Frage: Wie kommt das, was ist, zu Stande, wie ist es zum Sein gelangt, geworden, verfertigt, wie und wodurch zur Erscheinung gekommen? Gerade die letztgenannte Wendung bringt dann ganz unverstellt Medien und Medientechniken und deren Handhabung und Verfügung zur Sprache. Medien als Werkzeuge des Eintretens, Erscheinens oder Erscheinenlassens von etwas zu begreifen, ist demnach eine gängige und überzeugende Konzeption. Ebenso kann das Medium auch das Material sein, in dem sich das Eintreten und Heranbilden vollzieht und das an diesen Prozessen noch stets Anteil hat und ihnen mitwirkt.