Refine
Document Type
- Article (1015) (remove)
Institute
- Professur Theorie und Geschichte der modernen Architektur (393)
- Institut für Strukturmechanik (ISM) (254)
- Professur Informatik im Bauwesen (130)
- Professur Stochastik und Optimierung (40)
- Professur Bauphysik (23)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (21)
- Professur Informatik in der Architektur (15)
- Junior-Professur Computational Architecture (12)
- Institut für Europäische Urbanistik (11)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Bauhaus-Kolloquium (395)
- Weimar (395)
- Angewandte Mathematik (186)
- Strukturmechanik (185)
- Architektur (168)
- 1986 (63)
- 1989 (60)
- Design (59)
- Bauhaus (55)
- Raum (55)
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Formal Mutations
(2008)
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Bild und Raum
(2008)
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Ikonik und Architektonik
(2008)
Architekturen des Films
(2008)
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild’
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Digital Surfacing
(2008)
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
We propose an enhanced iterative scheme for the precise reconstruction of piezoelectric material parameters from electric impedance and mechanical displacement measurements. It is based on finite-element simulations of the full three-dimensional piezoelectric equations, combined with an inexact Newton or nonlinear Landweber iterative inversion scheme. We apply our method to two piezoelectric materials and test its performance. For the first material, the manufacturer provides a full data set; for the second one, no material data set is available. For both cases, our inverse scheme, using electric impedance measurements as input data, performs well.
At the end of the 1960s, architects at various universities world- wide began to explore the potential of computer technology for their profession. With the decline in prices for PCs in the 1990s and the development of various computer-aided architectural design systems (CAAD), the use of such systems in architectural and planning offices grew continuously. Because today no ar- chitectural office manages without a costly CAAD system and because intensive soſtware training has become an integral part of a university education, the question arises about what influence the various computer systems have had on the design process forming the core of architectural practice. The text at hand devel- ops ten theses about why there has been no success to this day in introducing computers such that new qualitative possibilities for design result. RESTRICTEDNESS
In this paper, we present a novel technique for adapting local image classifiers that are applied for object recognition on mobile phones through ad-hoc network communication between the devices. By continuously accumulating and exchanging collected user feedback among devices that are located within signal range, we show that our approach improves the overall classification rate and adapts to dynamic changes quickly. This technique is applied in the context of PhoneGuide – a mobile phone based museum guidance framework that combines pervasive tracking and local object recognition for identifying a large number of objects in uncontrolled museum environments.
We present a novel image classification technique for detecting multiple objects (called subobjects) in a single image. In addition to image classifiers, we apply spatial relationships among the subobjects to verify and to predict locations of detected and undetected subobjects, respectively. By continuously refining the spatial relationships throughout the detection process, even locations of completely occluded exhibits can be determined. Finally, all detected subobjects are labeled and the user can select the object of interest for retrieving corresponding multimedia information. This approach is applied in the context of PhoneGuide, an adaptive museum guidance system for camera-equipped mobile phones. We show that the recognition of subobjects using spatial relationships is up to 68% faster than related approaches without spatial relationships. Results of a field experiment in a local museum illustrate that unexperienced users reach an average recognition rate for subobjects of 85.6% under realistic conditions.
VHB-JOURQUAL represents the official journal ranking of the German Academic Association for Business Research. Since its introduction in 2003, the ranking has become the most influential journal evaluation approach in German-speaking countries, impacting several key managerial decisions of German, Austrian, and Swiss business schools. This article reports the methodological approach of the ranking’s second edition. It also presents the main results and additional analyses on the validity of the rating and the underlying decision processes of the respondents. Selected implications for researchers and higher-education institutions are discussed.
This text proposes a genealogy of biopolitics based on Michel Foucault’s thought, and on an understanding of it as a philosophico-political notion. In order to elaborate this genealogy, the text takes as its starting point not only politics but also life, as the second component of the term. The hypothesis is the following: To understand what biopolitics means, we have to take seriously Foucault’s assertion of an indetermination of life, as the correlate of power and knowledge. This notion emerges in the epistemic break that takes place around 1800 and that entails the opening up of the notion of biopolitics under the name of governmentality, implying that life is not only the object of biopolitics but also serves as its model.
Identity management provides PET (privacy enhancing technology) tools for users to control privacy of their personal data. With the support of mobile location determination techniques based on GPS, WLAN, Bluetooth, etc., context-aware and location-aware mobile applications (e.g. restaurant finder, friend finder, indoor and outdoor navigation, etc.) have gained quite big interest in the business and IT world. Considering sensitive static personal information (e.g. name, address, phone number, etc.) and also dynamic personal information (e.g. current location, velocity in car, current status, etc.), mobile identity management is required to help mobile users to safeguard their personal data. In this paper, we evaluate certain required aspects and features (e.g. context-to-context dependence and relation, blurring in levels, trust management with p3p integration, extended privacy preferences, etc.) of mobile identity management
Physicochemical forces are responsible for the swelling pressure development in saturated bentonites. In this paper, the swelling pressures of several compacted bentonite specimens for a range of dry density of 1.10–1.73 Mg/m3 were measured experimentally. The clay used was a divalent-rich Ca-Mg-bentonite with 12% exchangeable Na+ ions. The theoretical swelling pressure–dry density relationship for the bentonite was determined from the Gouy-Chapman diffuse double-layer theory. A comparison of experimental and theoretical results showed that the experimental swelling pressures are either smaller or greater than their theoretical counterparts within different dry density ranges. It is shown that for dry density of the clay less than about 1.55 Mg/m3, a possible dissociation of ions from the surface of the clay platelets contributed to the diffuse double-layer repulsion. At higher dry densities, the adsorptive forces due to surface and ion hydration dominated the swelling pressures of the clay. A comparison of the modified diffuse double-layer theory equations proposed in the literature to determine the swelling pressures of compacted bentonites and the experimental results for the clay in this study showed that the agreement between the calculated and experimental swelling pressure results is very good for dry densities less than 1.55 Mg/m3, whereas at higher dry densities the use of the equations was found to be limited.
Previous models for the explanation of settlement processes pay little attention to the interactions between settlement spreading and road networks. On the basis of a dielectric breakdown model in combination with cellular automata, we present a method to steer precisely the generation of settlement structures with regard to their global and local density as well as the size and number of forming clusters. The resulting structures depend on the logic of how the dependence of the settlements and the road network is implemented to the simulation model. After analysing the state of the art we begin with a discussion of the mutual dependence of roads and land development. Next, we elaborate a model that permits the precise control of permeability in the developing structure as well as the settlement density, using the fewest necessary control parameters. On the basis of different characteristic values, possible settlement structures are analysed and compared with each other. Finally, we reflect on the theoretical contribution of the model with regard to the context of urban dynamics.
Superimposing Dynamic Range
(2009)
Replacing a uniform illumination by a high-frequent illumination enhances the contrast of observed and captured images. We modulate spatially and temporally multiplexed (projected) light with reflective or transmissive matter to achieve high dynamic range visualizations of radiological images on printed paper or ePaper, and to boost the optical contrast of images viewed or imaged with light microscopes.
Flow velocity is generally presumed to influence flood damage. However, this influence is hardly quantified and virtually no damage models take it into account. Therefore, the influences of flow velocity, water depth and combinations of these two impact parameters on various types of flood damage were investigated in five communities affected by the Elbe catchment flood in Germany in 2002. 2-D hydraulic models with high to medium spatial resolutions were used to calculate the impact parameters at the sites in which damage occurred. A significant influence of flow velocity on structural damage, particularly on roads, could be shown in contrast to a minor influence on monetary losses and business interruption. Forecasts of structural damage to road infrastructure should be based on flow velocity alone. The energy head is suggested as a suitable flood impact parameter for reliable forecasting of structural damage to residential buildings above a critical impact level of 2m of energy head or water depth. However, general consideration of flow velocity in flood damage modelling, particularly for estimating monetary loss, cannot be recommended.
Spatial time domain reflectometry (spatial TDR) is a new measurement method for determining water content profiles along elongated probes (transmission lines). The method is based on the inverse modeling of TDR reflectograms using an optimization algorithm. By means of using flat ribbon cables it is possible to take two independent TDRmeasurements from both ends of the probe, which are used to improve the spatial information content of the optimization results and to consider effects caused by electrical conductivity. The method has been used for monitoring water content distributions on a full-scale levee model made of well-graded clean sand. Flood simulation tests, irrigation tests, and long-term observations were carried out on the model. The results show that spatial TDR is able to determine water content distributions with an accuracy of the spatial resolution of about ±3 cm compared to pore pressure measurements and an average deviation of ±2 vol % compared to measurements made using another independent TDR measurement system.
Nach dem aufgeregten Palaver um den Computer als 'Medium' und die akademische Begleitrhetorik zum Internet wird erneut die Frage nach der Leistung von Medienphilosophie gestellt - in diesem Beitrag als medienanthropologische Vergewisserung: welche technischen Überschreitungen definieren das Neue unserer Lage?
In the context of finite element model updating using output-only vibration test data, natural frequencies and mode shapes are used as validation criteria. Consequently, the correct pairing of experimentally obtained and numerically derived natural frequencies and mode shapes is important. In many cases, only limited spatial information is available and noise is present in the measurements. Therefore, the automatic selection of the most likely numerical mode shape corresponding to a particular experimentally identified mode shape can be a difficult task. The most common criterion for indicating corresponding mode shapes is the modal assurance criterion. Unfortunately, this criterion fails in certain cases and is not reliable for automatic approaches. In this paper, the purely mathematical modal assurance criterion will be enhanced by additional physical information from the numerical model in terms of modal strain energies. A numerical example and a benchmark study with experimental data are presented to show the advantages of the proposed energy-based criterion in comparison to the traditional modal assurance criterion.
Nähert man sich der Frage nach den Zusammenhängen zwischen Strukturalismus und generativen algorithmischen Planungsmethoden, so ist zunächst zu klären, was man unter Strukturalismus in der Architektur versteht. Allerdings gibt es letztlich keinen verbindlichen terminologischen Rahmen, innerhalb dessen sich eine solche Klärung vollziehen könnte. Strukturalismus in der Architektur wird oftmals auf ein formales Phänomen und damit auf eine Stilfrage reduziert. Der vorliegende Text will sich nicht mit Stilen und Phänomenen strukturalistischer Architektur auseinandersetzen, sondern konzentriert sich auf die Betrachtung strukturalistischer Entwurfsmethoden und stellt Bezüge her zu algorithmischen Verfahren, wobei das Zusammenspiel zwischen regelgeleitetem und intuitivem Vorgehen beim Entwerfen herausgearbeitet wird.
Im vorliegenden Beitrag wird ein Framework für ein verteiltes dynamisches Produktmodell (FREAC) vorgestellt, welches der experimentellen Softwareentwicklung dient. Bei der Entwicklung von FREAC wurde versucht, folgende Eigenschaften umzusetzen, die bei herkömmlichen Systemen weitgehend fehlen: Erstens eine hohe Flexibilität, also eine möglichst hohe Anpassbarkeit für unterschiedliche Fachdisziplinen; Zweitens die Möglichkeit, verschiedene Tools nahtlos miteinander zu verknüpfen; Drittens die verteilte Modellbearbeitung in Echtzeit; Viertens das Abspeichern des gesamten Modell-Bearbeitungsprozesses; Fünftens eine dynamische Erweiterbarkeit sowohl für Softwareentwickler, als auch für die Nutzer der Tools. Die Bezeichnung FREAC umfasst sowohl das Framework zur Entwicklung und Pflege eines Produktmodells (FREAC-Development) als auch die entwickelten Tools selbst (FREAC-Tools).
Der vorliegende Beitrag ist in zwei thematische Teilebereiche gegliedert. Der erste Teil beschäftigt sich mit der Analyse von Graphen, insbesondere von Graphen, die Straßennetzwerke repräsentieren. Hierzu werden Methoden aus der Graphentheorie angewendet und Kenngrößen aus der Space Syntax Methode ausgewertet. Ein Framework, welches basierend auf der Graphentheorie in Architektur und Stadtplanung Einzug gehalten hat, ist die Space Syntax Methode. Sie umfasst die Ableitung unterschiedlicher Kenngrößen eines Graphen bzw. Netzwerkes, wodurch eine Analyse für architektonische und stadtplanerische Zwecke ermöglicht wird.
Der zweite Teil dieses Berichts beschäftigt sich mit der Generierung von Graphen, insbe-sondere der von Straßennetzwerkgraphen. Die generativen Methoden basieren zum Teil auf den gewonnenen Erkenntnissen der Analyse von Straßennetzwerken. Es werden unterschiedliche Ansätze untersucht, um verschiedene Parameterwerte zur Generierung von Straßengraphen festzulegen. Als Ergebnis der Arbeiten ist ein Softwaretool entstanden, welches es erlaubt, auf Grundlage einer Voronoi-Tesselierung realistische Straßennetzwerkgraphen zu erzeugen.
Der vorliegende Text beschreibt ein computerbasiertes Verfahren zur Lösung von Layout-problemen in Architektur und Städtebau, welches mit möglichst wenig Problemwissen auskommt und schnell brauchbare Ergebnisse liefert, die durch schrittweises Hinzufügen von Problemwissen interaktiv weiter ausgearbeitet werden können. Für das generative Verfahren wurde eine Evolutions-Strategie verwendet, die mit Mechanismen zur Kollisionserkennung und virtuellen Federn zu einem hybriden Algorithmus kombiniert wurde. Dieser dient erstens der Lösung des Problems der Dichten Packung von Rechtecken sowie zweitens der Herstellung bestimmter topologischer Beziehungen zwischen diesen Rechtecken. Die Bearbeitung beider Probleme wird durch schrittweise Erweiterung grundlegender Verfahren untersucht, wobei die einzelnen Schritte anhand von Performancetests miteinander verglichen werden. Am Ende wird ein iterativer Algorithmus vorgestellt, der einerseits optimale Lösungen garantiert und andererseits diese Lösungen in einer für eine akzeptable Nutzerinteraktion ausreichenden Geschwindigkeit generiert.
K-dimensionale Bäume, im Englischen verkürzt auch K-d Trees genannt, sind binäre Such- und Partitionierungsbäume, die eine Menge von n Punkten in einem multidimensionalen Raum repräsentieren. Ihren Einsatz finden K-d Tree Datenstrukturen vor allem bei der Suche nach den nächsten Nachbarn, der Nearest Neighbor Query, und in weiteren Suchalgorithmen für beispielsweise Datenbankapplikationen. Im Rahmen des Forschungsprojekts Kremlas wurde die Raumpartitionierung durch K-d Trees als eine Teillösung zur Generierung von Layouts bei der Entwicklung einer kreativen evolutionären Entwurfsmethode für Layoutprobleme in Architektur und Städtebau entwickelt. Der Entwurf und die Entwicklung von Layouts, d.h. die Anordnung von Räumen, Baukörpern und Gebäudekomplexen im architektonischen und städtischen Kontext stellt eine zentrale Aufgabe in Architektur und Stadtplanung dar. Sie erfordert von Architekten und Planern funktionale sowie kreative Problemlösungen. Das Forschungsprojekt beschäftigt sich folglich nicht nur mit der Optimierung von Grundrissen sondern bindet auch gestalterische Aspekte mit ein. In der entwickelten Teillösung dient der K-d Tree Algorithmus zunächst zur Unterteilung einer vorgegebenen Fläche, wobei die Schnittlinien möglichen Raumgrenzen entsprechen. Durch die Kombination des K-d Tree Algorithmus mit genetischen Algorithmen und evolutionären Strategien werden Layouts hinsichtlich der Kriterien Raumgröße und Nachbarschaften optimiert. Durch die Interaktion des Nutzers können die Lösungen dynamisch angepasst und zur Laufzeit nach gestalterischen Kriterien verändert werden. Das Ergebnis ist ein generativer Mechanismus, der bei der kreativen algorithmischen Lösung von Layoutaufgaben in Architektur und Städtebau eine vielversprechende Variante zu bereits bekannten Algorithmen darstellt.
Augmented Urban Model: Ein Tangible User Interface zur Unterstützung von Stadtplanungsprozessen
(2011)
Im architektonischen und städtebaulichen Kontext erfüllen physische und digitale Modelle aufgrund ihrer weitgehend komplementären Eigenschaften und Qualitäten unterschiedliche, nicht verknüpfte Aufgaben und Funktionen im Entwurfs- und Planungsprozess. Während physische Modelle vor allem als Darstellungs- und Kommunikationsmittel aber auch als Arbeitswerkzeug genutzt werden, unterstützen digitale Modelle darüber hinaus die Evaluation eines Entwurfs durch computergestützte Analyse- und Simulationstechniken.
Analysiert wurden im Rahmen der in diesem Arbeitspapier vorgestellten Arbeit neben dem Einsatz des Modells als analogem und digitalem Werkzeug im Entwurf die Bedeutung des Modells für den Arbeitsprozess sowie Vorbilder aus dem Bereich der Tangible User Interfaces mit Bezug zu Architek¬tur und Städtebau. Aus diesen Betrachtungen heraus wurde ein Prototyp entwickelt, das Augmented Urban Model, das unter anderem auf den frühen Projekten und Forschungsansätzen aus dem Gebiet der Tangible User Interfaces aufsetzt, wie dem metaDESK von Ullmer und Ishii und dem Urban Planning Tool Urp von Underkoffler und Ishii.
Das Augmented Urban Model zielt darauf ab, die im aktuellen Entwurfs- und Planungsprozess fehlende Brücke zwischen realen und digitalen Modellwelten zu schlagen und gleichzeitig eine neue tangible Benutzerschnittstelle zu schaffen, welche die Manipulation von und die Interaktion mit digitalen Daten im realen Raum ermöglicht.
Das Unterteilen einer vorgegebenen Grundfläche in Zonen und Räume ist eine im Architekturentwurf häufig eingesetzte Methode zur Grundrissentwicklung. Für deren Automatisierung können Unterteilungsalgorithmen betrachtet werden, die einen vorgegebenen, mehrdimensionalen Raum nach einer festgelegten Regel unterteilen. Neben dem Einsatz in der Computergrafik zur Polygondarstellung und im Floorplanning zur Optimierung von Platinen-, Chip- und Anlagenlayouts finden Unterteilungsalgorithmen zunehmend Anwendung bei der automatischen Generierung von Stadt- und Gebäudegrundrissen, insbesondere in Computerspielen.
Im Rahmen des Forschungsprojekts Kremlas wurde das gestalterische und generative Potential von Unterteilungsalgorithmen im Hinblick auf architektonische Fragestellungen und ihre Einsatzmöglichkeiten zur Entwicklung einer kreativen evolutionären Entwurfsmethode zur Lösung von Layoutproblemen in Architektur und Städtebau untersucht. Es entstand ein generativer Mechanismus, der eine Unterteilungsfolge zufällig erstellt und Grundrisse mit einer festgelegten Anzahl an Räumen mit bestimmter Raumgröße durch Unterteilung generiert. In Kombination mit evolutionären Algorithmen lassen sich die erhaltenen Layoutlösungen zudem hinsichtlich architektonisch relevanter Kriterien optimieren, für die im vorliegenden Fall Nachbarschaftsbeziehungen zwischen einzelnen Räumen betrachtet wurden.
Many researchers are working on developing robots into adequate partners, be it at the working place, be it at home or in leisure activities, or enabling elder persons to lead a self-determined, independent life. While quite some progress has been made in e.g. speech or emotion understanding, processing and expressing, the relations between humans and robots are usually only short-term. In order to build long-term, i.e. social relations, qualities like empathy, trust building, dependability, non-patronizing, and others will be required. But these are just terms and as such no adequate starting points to “program” these capacities even more how to avoid the problems and pitfalls in interactions between humans and robots. However, a rich source for doing this is available, unused until now for this purpose: artistic productions, namely literature, theater plays, not to forget operas, and films with their multitude of examples. Poets, writers, dramatists, screen-writers, etc. have studied for centuries the facets of interactions between persons, their dynamics, and the related snags. And since we wish for human-robot relations as master-servant relations - the human obviously being the master - the study of these relations will be prominent. A procedure is proposed, with four consecutive steps, namely Selection, Analysis, Categorization, and Integration. Only if we succeed in developing robots which are seen as servants we will be successful in supporting and helping humans through robots.
Stonecutters and Sutong Bridge have pushed the world record for main span length of cable-stayed bridges to over 1000m. The design of these bridges, both located in typhoon prone regions, is strongly influenced by wind effects during their erection. Rigorous wind tunnel test programmes have been devised and executed to determine the aerodynamic behaviour of the structures in the most critical erection conditions. Testing was augmented by analytical and numerical analyses to verify the safety of the structures throughout construction and to ensure that no serviceability problems would affect the erection process. This paper outlines the wind properties assumed for the bridge sites, the experimental test programme with some of its results, the dynamic properties of the bridges during free cantilevering erection and the assessment of their aerodynamic performance. Along the way, it discusses the similarities and some revealing differences between the two bridges in terms of their dynamic response to wind action.
The laser beam is a small, flexible and fast polishing tool. With laser radiation it is possible to finish many outlines or geometries on quartz glass surfaces in the shortest possible time. It's a fact that the temperature developing while polishing determines the reachable surface smoothing and, as a negative result, causes material tensions. To find out which parameters are important for the laser polishing process and the surface roughness respectively and to estimate material tensions, temperature simulations and extensive polishing experiments took place. During these experiments starting and machining parameters were changed and temperatures were measured contact-free.
Patients and staff in hospitals are exposed to a complex sound environment with rather high noise levels. In intensive care units, the main noise sources are hospital staff on duty and medical equipment, which generates both operating noise and acoustic alarms. Although noise in most cases is produced during activities for the purpose of saving life, noise can induce significant changes in the depth and quality of sleep and negatively affect health in general. Results of a survey of hospital staff are presented as well as measurements in two German hospital wards: a standard two-bed room and a special Intermediate Care Unit (IMC-Unit), each in a different Intensive Care Unit (ICU). Sound pressure data were collected over a 48 hour period and converted into different levels (LAFeq, LAFmax, LAFmin, LAF 5%), as well as a rating level LAr, which is used to take tonality and impulsiveness into account. An analysis of the survey and the measured data, together with a comparison of thresholds of national and international regulations and standards describe the acoustic situation and its likely noise effects on staff and patients.
Das vorliegende Arbeitspapier beschäftigt sich mit der Thematik der Nutzerinteraktion bei computerbasierten generativen Systemen. Zunächst wird erläutert, warum es notwendig ist, den Nutzer eines solchen Systems in den Generierungsprozess zu involvieren. Darauf aufbauend werden Anforderungen an ein interaktives generatives System formuliert. Anhand eines Systems zur Generierung von Layouts werden Methoden diskutiert, um diesen Anforderungen gerecht zu werden. Es wird gezeigt, dass sich insbesondere evolutionäre Algorithmen für ein interaktives entwurfsunterstützendes System eignen. Es wird kurz beschrieben, wie sich Layoutprobleme durch eine evolutionäre Strategie lösen lassen. Abschließend werden Fragen bezüglich der grafischen Darstellung von Layoutlösungen und der Interaktion mit dem Dargestellten diskutiert.
Entwerfen Versionieren: Probleme und Lösungsansätze für die Organisation verteilter Entwurfsprozesse
(2011)
Entwerfen ist ein komplexer Vorgang. Soll dieser Vorgang nicht allein, sondern räumlich verteilt mit mehreren Beteiligten gemeinsam stattfinden, so sind digitale Werkzeuge zur Unterstützung dieses Prozesses unumgänglich. Die Verwendung von Werkzeugen für Ent-wurfsprozesse bedeutet jedoch immer auch eine Manipulation des zu unterstützenden Prozesses selbst. Im Falle von Werkzeugen zur Unterstützung der Kollaboration mehrerer Beteiligter stellen die implementierten Koordinationsmechanismen solche prozessbeeinflussenden Faktoren dar. Damit diese Mechanismen, entsprechend der Charakteristika kreativer Prozesse, so flexibel wie möglich gestaltet werden können, liegt die Anforderung auf technischer Ebene darin, ein geeignetes Konzept für eine nachvollziehbare Speicherung (Versionierung) der stattfindenden Entwurfshandlungen zu schaffen. Der vorliegende Artikel beschäftigt sich mit dem Thema der Entwurfsversionierung in computergestützten kollaborativen Arbeitsumgebungen. Vor dem Hintergrund, dass die Versionierung den kreativen Entwurfsprozess möglichst wenig manipulieren soll, werden technische sowie konzeptionelle Probleme der diskutiert und Lösungsansätze für diese vorgestellt.
This work is based on the concept that the structure of a city can be defined by six basic urban patterns. To enable more complex urban planning as a long-term objective I have developed a simulation method for generating these basic patterns and for combining them to form various structures. The generative process starts with the two-dimensional organisation of streets followed by the parceling of the remaining areas. An agent-based diffusion-contact model is the basis of these first two steps. Then, with the help of cellular automata, the sites for building on are defined and a three-dimensional building structure is derived. I illustrate the proposed method by showing how it can be applied to generate possible structures for an urban area in the city of Munich.
The laser beam is a small, flexible and fast polishing tool. With laser radiation it is possible to finish many outlines or geometries on quartz glass surfaces in the shortest possible time. It’s a fact that the temperature developing while polishing determines the reachable surface smoothing and, as a negative result, causes material tensions. To find out which parameters are important for the laser polishing process and the surface roughness respectively and to estimate material tensions, temperature simulations and extensive polishing experiments took place. During these experiments starting and machining parameters were changed and temperatures were measured contact-free. The accuracy of thermal and mechanical simulation was improved in the case of advanced FE-analysis.
Aktionsräume in Dresden
(2012)
In vorliegender Studie werden die Aktionsräume von Befragten in Dresden über eine standardisierte Befragung (n=360) untersucht. Die den Aktionsräumen zugrundeliegenden Aktivitäten werden unterschieden in Einkaufen für den täglichen Bedarf, Ausgehen (z.B. in Café, Kneipe, Gaststätte), Erholung im Freien (z.B. spazieren gehen, Nutzung von Grünanlagen) und private Geselligkeit (z.B. Feiern, Besuch von Verwandten/Freunden). Der Aktionsradius wird unterschieden in Wohnviertel, Nachbarviertel und sonstiges weiteres Stadtgebiet. Um aus den vier betrachteten Aktivitäten einen umfassenden Kennwert für den durchschnittlichen Aktionsradius eines Befragten zu bilden, wird ein Modell für den Kennwert eines Aktionsradius entwickelt. Die Studie kommt zu dem Ergebnis, dass das Alter der Befragten einen signifikanten – wenn auch geringen – Einfluss auf den Aktionsradius hat. Das Haushaltsnettoeinkommen hat einen mit Einschränkung signifikanten, ebenfalls geringen Einfluss auf alltägliche Aktivitäten der Befragten.
In vorliegender Studie werden die Wohnstandortpräferenzen der Sinus-Milieugruppen in Dresden über eine standardisierte Befragung (n=318) untersucht. Es wird unterschieden zwischen handlungsleitenden Wohnstandortpräferenzen, die durch Anhaltspunkte auf der Handlungsebene stärker in Betracht gezogen werden sollten, und Wohnstandortpräferenzen, welche eher orientierenden Charakter haben. Die Wohnstandortpräferenzen werden untersucht anhand der Kategorien Ausstattung/Zustand der Wohnung/des näheren Wohnumfeldes, Versorgungsstruktur, soziales Umfeld, Baustrukturtyp, Ortsgebundenheit sowie des Aspektes des Images eines Stadtviertels. Um die Befragten den Sinus-Milieugruppen zuordnen zu können, wird ein Lebensweltsegment-Modell entwickelt, welches den Anspruch hat, die Sinus-Milieugruppen in der Tendenz abzubilden. Die Studie kommt zu dem Ergebnis, dass die Angehörigen der verschiedenen Lebensweltsegmente in jeder Kategorie - wenn auch z.T. auf geringerem Niveau - signifikante Unterschiede in der Bewertung einzelner Wohnstandortpräferenzen aufweisen.
Volumerendering ist eine Darstellungstechnik, um verschiedene räumliche Mess- und Simulationsdaten anschaulich, interaktiv grafisch darzustellen. Im folgenden Beitrag wird ein Verfahren vorgestellt, mehrere Volumendaten mit einem Architekturflächenmodell zu überlagern. Diese komplexe Darstellungsberechnung findet mit hardwarebeschleunigten Shadern auf der Grafikkarte statt. Im Beitrag wird hierzu der implementierte Softwareprototyp "VolumeRendering" vorgestellt. Neben dem interaktiven Berechnungsverfahren wurde ebenso Wert auf eine nutzerfreundliche Bedienung gelegt. Das Ziel bestand darin, eine einfache Bewertung der Volumendaten durch Fachplaner zu ermöglichen. Durch die Überlagerung, z. B. verschiedener Messverfahren mit einem Flächenmodell, ergeben sich Synergien und neue Auswertungsmöglichkeiten. Abschließend wird anhand von Beispielen aus einem interdisziplinären Forschungsprojekt die Anwendung des Softwareprototyps illustriert.
Wissen wer wo wohnt
(2012)
In cities people live together in neighbourhoods. Here they can find the infrastructure they need, starting with shops for the daily purpose to the life-cycle based infrastructures like kindergartens or nursing homes. But not all neighbourhoods are identical. The infrastructure mixture varies from neighbourhood to neighbourhood, but different people have different needs which can change e.g. based on the life cycle situation or their affiliation to a specific milieu. We can assume that a person or family tries to settle in a specific neighbourhood that satisfies their needs. So, if the residents are happy with a neighbourhood, we can further assume that this neighbourhood satisfies their needs. The socio-oeconomic panel (SOEP) of the German Institute for Economy (DIW) is a survey that investigates the economic structure of the German population. Every four years one part of this survey includes questions about what infrastructures can be found in the respondents neighbourhood and the satisfaction of the respondent with their neighbourhood. Further, it is possible to add a milieu estimation for each respondent or household. This gives us the possibility to analyse the typical neighbourhoods in German cities as well as the infrastructure profiles of the different milieus. Therefore, we take the environment variables from the dataset and recode them into a binary variable – whether an infrastructure is available or not. According to Faust (2005), these sets can also be understood, as a network of actors in a neighbourhood, which share two, three or more infrastructures. Like these networks, this neighbourhood network can also be visualized as a bipartite affiliation network and therefore analysed using correspondence analysis. We will show how a neighbourhood analysis will benefit from an upstream correspondence analysis and how this could be done. We will also present and discuss the results of such an analysis.
Different types of data provide different type of information. The present research analyzes the error on prediction obtained under different data type availability for calibration. The contribution of different measurement types to model calibration and prognosis are evaluated. A coupled 2D hydro-mechanical model of a water retaining dam is taken as an example. Here, the mean effective stress in the porous skeleton is reduced due to an increase in pore water pressure under drawdown conditions. Relevant model parameters are identified by scaled sensitivities. Then, Particle Swarm Optimization is applied to determine the optimal parameter values and finally, the error in prognosis is determined. We compare the predictions of the optimized models with results from a forward run of the reference model to obtain the actual prediction errors. The analyses presented here were performed calibrating the hydro-mechanical model to 31 data sets of 100 observations of varying data types. The prognosis results improve when using diversified information for calibration. However, when using several types of information, the number of observations has to be increased to be able to cover a representative part of the model domain. For an analysis with constant number of observations, a compromise between data type availability and domain coverage proves to be the best solution. Which type of calibration information contributes to the best prognoses could not be determined in advance. The error in model prognosis does not depend on the error in calibration, but on the parameter error, which unfortunately cannot be determined in inverse problems since we do not know its real value. The best prognoses were obtained independent of calibration fit. However, excellent calibration fits led to an increase in prognosis error variation. In the case of excellent fits; parameters' values came near the limits of reasonable physical values more often. To improve the prognoses reliability, the expected value of the parameters should be considered as prior information on the optimization algorithm.
We present an extended finite element formulation for dynamic fracture of piezo-electric materials. The method is developed in the context of linear elastic fracture mechanics. It is applied to mode I and mixed mode-fracture for quasi-steady cracks. An implicit time integration scheme is exploited. The results are compared to results obtained with the boundary element method and show excellent agreement.
This work describes an algorithm and corresponding software for incorporating general nonlinear multiple-point equality constraints in a implicit sparse direct solver. It is shown that direct addressing of sparse matrices is possible in general circumstances, circumventing the traditional linear or binary search for introducing (generalized) constituents to a sparse matrix. Nested and arbitrarily interconnected multiple-point constraints are introduced by processing of multiplicative constituents with a built-in topological ordering of the resulting directed graph. A classification of discretization methods is performed and some re-classified problems are described and solved under this proposed perspective. The dependence relations between solution methods, algorithms and constituents becomes apparent. Fracture algorithms can be naturally casted in this framework. Solutions based on control equations are also directly incorporated as equality constraints. We show that arbitrary constituents can be used as long as the resulting directed graph is acyclic. It is also shown that graph partitions and orderings should be performed in the innermost part of the algorithm, a fact with some peculiar consequences. The core of our implicit code is described, specifically new algorithms for direct access of sparse matrices (by means of the clique structure) and general constituent processing. It is demonstrated that the graph structure of the second derivatives of the equality constraints are cliques (or pseudo-elements) and are naturally included as such. A complete algorithm is presented which allows a complete automation of equality constraints, avoiding the need of pre-sorting. Verification applications in four distinct areas are shown: single and multiple rigid body dynamics, solution control and computational fracture.
The lattice dynamics properties are investigated for twisting bilayer graphene. There are big jumps for the inter-layer potential at twisting angle θ=0° and 60°, implying the stability of Bernal-stacking and the instability of AA-stacking structures, while a long platform in [8,55]° indicates the ease of twisting bilayer graphene in this wide angle range. Significant frequency shifts are observed for the z breathing mode around θ=0° and 60°, while the frequency is a constant in a wide range [8,55]°. Using the z breathing mode, a mechanical nanoresonator is proposed to operate on a robust resonant frequency in terahertz range.
The upper limit of the thermal conductivity and the mechanical strength are predicted for the polyethylene chain, by performing the ab initio calculation and applying the quantum mechanical non-equilibrium Green’s function approach. Specially, there are two main findings from our calculation: (1) the thermal conductivity can reach a high value of 310 Wm−1 K−1 in a 100 nm polyethylene chain at room temperature and the thermal conductivity increases with the length of the chain; (2) the Young’s modulus in the polyethylene chain is as high as 374.5 GPa, and the polyethylene chain can sustain 32.85%±0.05% (ultimate) strain before undergoing structural phase transition into gaseous ethylene.
Dieses Arbeitspapier beschreibt, wie ausgehend von einem vorhandenen Straßennetzwerk Bebauungsareale mithilfe von Unterteilungsalgorithmen automatisch umgelegt, d.h. in Grundstücke unterteilt, und anschließend auf Basis verschiedener städtebaulicher Typen bebaut werden können. Die Unterteilung von Bebauungsarealen und die Generierung von Bebauungsstrukturen unterliegen dabei bestimmten stadtplanerischen Einschränkungen, Vorgaben und Parametern. Ziel ist es aus den dargestellten Untersuchungen heraus ein Vorschlagssystem für stadtplanerische Entwürfe zu entwickeln, das anhand der Umsetzung eines ersten Softwareprototyps zur Generierung von Stadtstrukturen weiter diskutiert wird.
This paper presents a strain smoothing procedure for the extended finite element method (XFEM). The resulting “edge-based” smoothed extended finite element method (ESm-XFEM) is tailored to linear elastic fracture mechanics and, in this context, to outperform the standard XFEM. In the XFEM, the displacement-based approximation is enriched by the Heaviside and asymptotic crack tip functions using the framework of partition of unity. This eliminates the need for the mesh alignment with the crack and re-meshing, as the crack evolves. Edge-based smoothing (ES) relies on a generalized smoothing operation over smoothing domains associated with edges of simplex meshes, and produces a softening effect leading to a close-to-exact stiffness, “super-convergence” and “ultra-accurate” solutions. The present method takes advantage of both the ES-FEM and the XFEM. Thanks to the use of strain smoothing, the subdivision of elements intersected by discontinuities and of integrating the (singular) derivatives of the approximation functions is suppressed via transforming interior integration into boundary integration. Numerical examples show that the proposed method improves significantly the accuracy of stress intensity factors and achieves a near optimal convergence rate in the energy norm even without geometrical enrichment or blending correction.