Refine
Has Fulltext
- yes (2569) (remove)
Document Type
- Conference Proceeding (857)
- Article (830)
- Doctoral Thesis (493)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
- Diploma Thesis (13)
- Other (11)
- Study Thesis (10)
- Habilitation (9)
- Review (7)
- Working Paper (5)
- Course Material (1)
- Lecture (1)
- Magister's Thesis (1)
- Sound (1)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Institut für Strukturmechanik (ISM) (164)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
- Professur Informatik in der Architektur (37)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Computerunterstütztes Verfahren (289)
- Architektur (246)
- Architektur <Informatik> (201)
- CAD (184)
- Angewandte Informatik (155)
- Angewandte Mathematik (148)
- Bauhaus (125)
- Architekturtheorie (97)
Year of publication
- 2004 (219)
- 2003 (194)
- 2006 (168)
- 1997 (165)
- 2020 (123)
- 2010 (105)
- 2008 (103)
- 2005 (100)
- 2000 (99)
- 2022 (94)
- 2015 (93)
- 2012 (91)
- 2021 (88)
- 2011 (82)
- 2019 (65)
- 2023 (65)
- 1987 (63)
- 1990 (60)
- 2016 (59)
- 2018 (58)
- 2013 (57)
- 2017 (53)
- 1983 (49)
- 2014 (48)
- 2007 (46)
- 2009 (45)
- 1979 (36)
- 1976 (29)
- 1993 (23)
- 2001 (22)
- 2002 (21)
- 1999 (18)
- 1992 (16)
- 1998 (7)
- 2024 (4)
- 1995 (1)
This paper describes a research project that addresses the difficulties in dealing with regulatory documents such as national and regional codes. These documents tend to be voluminous, heavily cross-referenced, possibly ambiguous and even conflicting at times. There are often multiple documents that need to be consulted and satisfied; however it is a difficult task to locate all of the relevant provisions. In addition, sections dealing with the same or similar conceptual ideas sometimes lay down conflicting requirements. We propose a framework for regulation representation, analysis and comparison with emphasis on the extraction of similarities between provisions. We focus on accessibility regulations, whose intent is to provide the same or equivalent access to a building and its facilities for disabled persons. An XML regulatory repository is developed to extract structural as well as non-structural features from government regulations to help user understanding and computational analysis. A similarity analysis is performed between different sources of regulations. In order to achieve a better comparison between provisions, we employ a combination of feature matching and structural analysis. Results are shown on comparisons between American and European codes, as well as on the domain of electronic-rulemaking.
The general motivation of this research is to develop software to support the handling of the increased complexity of architectural design. In this paper we describe a system providing general support during the whole process. Instead of only developing design tools we are also addressing the problem of the operating environment of these tools. We conclude that design tools have to be integrated in an open, modular, distributed, user friendly and efficient environment. Two major fields have to be addressed - the development of design tools and the realisation of an integrated system as their operation environment. We will briefly focus on the latter by discussing known technologies in the field of information technology and other design disciplines that can be used to realise such an environment. Regarding the first subject we have to state the need of a detailed tool specification. As a solution we suggest a strategy where the tool functions are specified on the basis of a transformation, where a hierarchical process model is mapped into specifications of different design tools realising appropriate support for all sub-processes of architectural design. Using this strategy the main steps to develop such a support system are: implementation of a framework as basis for the integrated design system decision whether the tool specification are already implemented in available tools in this case these tools can be integrated using known methods for tool coupling otherwise new design tools have to be developed according to the framework
Biodiesel, as the main alternative fuel to diesel fuel which is produced from renewable and available resources, improves the engine emissions during combustion in diesel engines. In this study, the biodiesel is produced initially from waste cooking oil (WCO). The fuel samples are applied in a diesel engine and the engine performance has been considered from the viewpoint of exergy and energy approaches. Engine tests are performed at a constant 1500 rpm speed with various loads and fuel samples. The obtained experimental data are also applied to develop an artificial neural network (ANN) model. Response surface methodology (RSM) is employed to optimize the exergy and energy efficiencies. Based on the results of the energy analysis, optimal engine performance is obtained at 80% of full load in presence of B10 and B20 fuels. However, based on the exergy analysis results, optimal engine performance is obtained at 80% of full load in presence of B90 and B100 fuels. The optimum values of exergy and energy efficiencies are in the range of 25–30% of full load, which is the same as the calculated range obtained from mathematical modeling.
Die Arbeit »Anachronismen: Historiografie und Kino« geht von einer zunächst einfachen Beobachtung aus: beinahe immer, wenn Historiker_innen sich mit Geschichtsfilmen auseinander setzen, findet sich die lautstark geführte Beschwerde über die zahlreichen und vermeidbaren Anachronismen der Filme, die sie als ernst zu nehmende historiografische Beiträge desavouieren.
Von hier ausgehend verfolgt die Arbeit ein dreifaches Projekt: zunächst in einer kritischen Analyse geschichtstheoretischer Texte einige Hinweise für den Status von Anachronismen für die moderne westliche Historiografie zu gewinnen. Zweitens zu untersuchen, welche Rolle Anachronismen für den Geschichtsfilm spielen. Und drittens von dort aus das epistemische Potential anachronistischen Geschichtskinos zu untersuchen.
Eine der Hauptthesen, welche den Blick sowohl auf die Filme wie auf die theoretischen Texte leitet, besagt, dass Anachronismen genau jene Punkte sind, an denen die Medien einer jeden Geschichtsschreibung beobachtbar werden. Die Beobachtung und Beschreibung dieser Medien der kinematografischen Geschichtsschreibung unternimmt die Arbeit unter Zuhilfenahme einiger theoretischer Überlegungen der Actor Network Theory (ANT).
Die Arbeit ist in vier Kapitel gegliedert, in deren Zentrum jeweils die Diskussion eines ANT-Begriffs sowie die Analyse eines Geschichtsfilmes steht. Zu den untersuchten Filmen gehören Shutter Island (Martin Scorsese, 2010), Chronik der Anna Magdalena Bach (Jean-Marie Straub/Danièle Huillet, 1968), Cleopatra (Joseph L. Mankiewicz, 1963) und Caravaggio (Derek Jarman, 1986). Die Arbeit kommentiert außerdem theoretische Texte zur Historiografie und zu Anachronismen von Walter Benjamin, Leo Bersani, Georges Didi-Huberman, Siegfried Kracauer, Friedrich Meinecke, Friedrich Nietzsche, Jacques Rancière, Leopold Ranke, Paul Ricœur, Georg Simmel, Hayden White u. a.
Für die weitgehende Nutzung der enthaltenen Nährstoffe in häuslichem Abwasser und die Realisierung des Kreislaufgedankens auch in kommunalen Abwassersystemen ist eine Trennung der Abwasserströme, wie sie vielfach bereist in der industriellen Produktion eingesetzt wird, Vorrausetzung. Die getrennte Erfassung und Sammlung sowie die Nutzung bzw. Behandlung der einzelnen Teilströme weicht von den üblichen Verfahren der bisher praktizierten end-of-pipe-Systeme ab und es gilt nach alternativen Verfahrensmöglichkeiten zu suchen, um die Ziele eines teilstromorientierten Abwasserkonzeptes zu verwirklichen. Im Rahmen dieser Arbeit wird ein anaerobes mesophiles Behandlungsverfahren für den Teilstrom Braunwasser untersucht. Zu diesem Zweck wurden verschieden Versuche mit Faeces mit unterschiedlichen Wassergehalten und in unterschiedlichen Mischungen von Einsatz des Rohsubstrates bis hin zur Zugabe von Urin, Wasser und/oder Impfschlamm untersucht. Während der Versuche in temperierten Reaktoren fand eine Aufzeichnung der Gaserträge der einzelnen Ansätze, der pH-Werte in ausgewählten Ansätzen, der Raumtemperatur und der Substrattemperatur im Reaktor statt. Diese verschiedenen Ansätze sind anhand ihrer Zusammensetzung dargestellt und in den gewonnenen Ergebnissen untereinander und mit denen in der Startliteratur angegebenen Werten verglichen und bewertet. Ziel der anaeroben Behandlung war es, ein stabilisiertes Substrat aus der anaeroben Stufe zu erhalten. Aus den gewonnenen Ergebnissen wird ein Verfahrensvorschlag für eine anaerobe Stabilisierung gemacht.
Am beispiel der sich im Bau befindlichen U-Bahnstation 'Vijzelgracht' in Amsterdam werden beispielhaft Ablaufkonzepte untersucht und und durch Analyse ihrer Logik geprüft. Der Schwerpunkt der Untersuchung liegt in der Entwicklung von möglichen Konzepten der Kombination von Erdaushub mit der Montage von aussteifenden Elementen. Dazu werden die wesentlichen, relevanten Arbeitsschritte identifiziert und beschrieben. Auf der Basis von Aufwandswerten werden Maschinen und Geräte dimensioniert. Die Mengenermittlung des Erdstoffvolumens ist hierbei ebenso Grundlage für die Erarbeitung von Ablaufkonzepten. Auf diesen Grundlagen werden mehrere Ablaufkonzepte dargestellt. Der Nachweis der logischen Wahrheit erfolgt am Beispiel einer Ablaufvariante. Hier werden die in logische Sprache überführten Arbeitsschritte dargestellt und auf Wahrheit hin geprüft.
Mit der Einführung des semiprobabilistischen Sicherheitskonzeptes im Bauwesen wurden auch die Berechnungs- und Nachweisgrundlagen für Brücken neu definiert. Für die praktische Anwendung auf nationaler Ebene und die Präzisierung der Festlegungen des EC’s wurde ein ARS mit konsistenten Regeln zur Ermittlung von Kräften und Verformungen für Brückenlager erstellt. Schwerpunkt der Arbeit ist die Ermittlung von Kräften und Verformungen an stahlbewehrten Elastomerlagern nach den Normengrundlagen der DIN 1072 und des DIN-Fachbericht 101 (in Erweiterung durch den Entwurf des ARS vom 25.07.2005) an einem komplexen Spannbeton-Brückentragwerk, um einen Normenvergleich bezüglich des Sicherheitsniveaus anstellen zu können. Die Berechnungen wurden unter Verwendung des FE-Programmsystems ANSYS am nichtlinearen, komplexen Gesamtsystem durchgeführt. Im Vorfeld erfolgte dazu ein grundlegender Vergleich der Sicherheitskonzepte, der Lastannahmen und maßgebenden Lastfallkombinationen. Für die Windlastannahmen wurden die aktuellen Regelungen der DIN 1055-4 (2005-03) und der EN 1991-1-4 (2005-07) angewandt. Für die Vorbemessung und Nachweise des Spannbeton-Überbaus wurde ein InfoCAD-FE-Modell genutzt. Resultierend in der Lagerdimensionierung wurde anhand der Untersuchungsergebnisse die Vergleichsanalyse des jeweils erreichbaren Sicherheitsniveaus durchgeführt. Unter der betrachteten Bemessungssituation ist das erreichte Sicherheitsniveau nach neuer Normung vergleichbar mit dem des bisherigen Erfahrungsbereiches der DIN 1072.
Es wird die Geschichte des Spannbetons im Brückenbau wiedergegeben. Hierzu wird unter anderem ein Normenvergleich zum Thema Spannbeton aufgestellt. Desweiteren wird erläutert, was die Grundlagen für die Nachrechnung bestehender Brücken sind. Für die Brücke über die Saale bei Jena-Kunitz wird ein Beprobungskonzept mit zerstörenden Prüfungen erstellt. Die erhaltenen Proben sollen in Labortests weiter untersucht werden. Die durch die Beprobung entstehenden Schädigungen sollen zu weiteren Messungen an der Brücke genutzt werden. Die Schädigungszustände werden statisch nachgewiesen. Zum Schluss werden Hinweise für den geplanten Abriss der Brücke gegeben.
Ziel der Arbeit ist es, die Breite des Aufgabengebietes Bauen im Bestand zu analysieren und grafisch aufzuwerten. In einem Verantwortlichkeitskataster werden in Anlehnung an die HOAI die Aufgaben während eines Bestandsvorhabens den einzelnen Beteiligten zugeordnet. Die Bestandsaufnahme als entscheidenden Bestandteil eines Bestandsprojektes wird näher erläutert und beschrieben. Einige Besonderheiten in der Vorbereitung und Überwachung eines Vorhabens im Bestand werden in Ansätzen zu einem Leitfaden zur Ingenieurtätigkeit zusammengefasst.
Im Rahmen der Arbeit wird das Querkrafttragverhalten bewehrter Bauteile aus Porenbeton untersucht. Die vorherrschende Beschreibung des inneren Kräftezustandes basiert auf der Modellvorstellung eines Fachwerks oder Sprengwerks mit Stahlzugstreben und Betondruckstreben. Ziel ist die Entwicklung eines alternativen Verfahrens zur Ermittlung des inneren Kräftezustandes.
Ausgehend vom Prinzip des Minimums des elastischen Gesamtpotentials wird eine Extremalaufgabe für das mechanische Problem formuliert. Die numerische Umsetzung basiert auf der Überführung der Extremalaufgabe in eine nichtlineare Optimierungsaufgabe. Diese lässt sich mit Standardsoftware lösen. Der Vorteil dieser Vorgehensweise besteht darin, dass das grundlegende Verfahren unabhängig vom verwendeten Materialmodell ist. Nichtlineare Spannungs-Dehnungs-Beziehungen oder die Berücksichtigung der Rissbildung erfordern keine Anpassung des Berechnungsalgorithmus.
Bewehrte Porenbetonbauteile besitzen im Hinblick auf das Trag- und Verformungsverhalten einige Besonderheiten. Berechnungsansätze für Stahlbetonelemente lassen sich nicht ohne entsprechende Modifikationen übertragen lassen. Die Bewehrung wird aus glatten Stäben hergestellt, so dass nach der Herstellung nur ein Haftverbund wirksam ist. Dieser kann über die Lebensdauer teilweise oder vollständig versagen. Die Kraftübertragung zwischen den Verbundelementen muss durch entsprechende Kopplungselemente (z.B. Querstäbe, Bügel, Endwinkel) sichergestellt werden.
Der Bewehrungskorb ist im Porenbeton gebettet. Aufgrund der relativ niedrigen Festigkeit bzw. Steifigkeit des Porenbetons und des teilweise unwirksamen Verbundes treten Relativverschiebungen zwischen beiden Verbundmaterialien auf. Hier sind die Ursachen dafür zu finden, dass die Beanspruchung der Querkraftbewehrung viel geringer ist als bei vergleichbaren Stahlbetonbalken. Der Querkraftbewehrungsgrad erlaubt keine Rückschlüsse auf den Querkraftwiderstand.
Das zentrale Anliegen der Arbeit ist die Implementierung nichtlinearer Materialansätze, der Rissbildung des Porenbetons sowie der porenbetonspezifischen Besonderheiten verschieblicher Verbund, diskrete Verankerung der Bewehrung und Relativverschiebungen zwischen Porenbeton und Bewehrung) in das Berechnungsmodell.
Die Leistungsfähigkeit des entwickelten Berechnungsmodells wird anhand von Beispielen demonstriert. Die Kräfte in der Bewehrung sowie das Tragwerksverhalten werden realitätsnah bestimmt.
Die wachsende Notwendigkeit zur Energieeinsparung hat in verschiedenen Ländern zur Entwicklung von Prognosemodellen zur Bestimmung des Energiebedarfs im Wohnungssektor geführt. Obwohl Prognosemodelle prinzipiell eine Lösung zur Bestimmung des Energiebedarfs und zur Beurteilung der Auswirkungen von zukünftigen Energieeinsparmaßnahmen darstellen, sind die bestehenden Modelle jedoch mit Unwägbarkeiten in der Modellierung und Mängeln bezüglich der verwendeten Daten und Methodik behaftet.
In dieser Arbeit werden die Übertragbarkeit, Genauigkeit und stochastische Unsicherheit von zwölf Prognosemodellen (MAED-2, FfE-Gebäudemodell, CDEM, REM, CREEM, ECCABS, REEPS, BREHOMES, LEAP, DECM, CHM, BSM) analysiert, wobei Deutschland als Fallbeispiel verwendet wird. Zur Verbesserung der Übertragbarkeit der bestehenden Modelle werden Anpassungen vorgeschlagen. Außerdem wird für jedes Modell eine Bestimmung der einflussreichsten Parameter auf den simulierten Endenergiebedarf mit Hilfe einer Sensitivitätsanalyse vorgenommen. Es konnte gezeigt werden, dass Modelle mit einem hohen Detaillierungsgrad nicht zwangsläufig genauere Ergebnisse für den Endenergiebedarf garantieren. Dennoch wurde festgestellt, dass Modelle mit einem niedrigen Detaillierungsgrad Ergebnisse mit größeren Unsicherheiten liefern als Modelle mit einem höheren Detaillierungsgrad. Es wurde weiterhin festgestellt, dass die einflussreichsten Parameter zur Bestimmung des Endenergiebedarfs im Wohnungssektor Innenraumtemperatur, Außentemperatur (Gradtagzahl), Bevölkerungsentwicklung und Anzahl der Gebäude/Wohnungen sind.
Auf der Grundlage der Erkenntnisse zur Bewertung bestehender Modelle und der Bestimmung der einflussreichsten Parameter wurde ein optimiertes Prognosemodell (Transferable Residential Energy Model, TREM) entwickelt. Mit dessen Hilfe wurde die Entwicklung des Endenergiebedarfs im deutschen Wohnungssektor sowie in anderen Ländern (Vereinigtes Königsreich und Chile) prognostiziert. Diese Ergebnisse wurden anschließend mit statistischen Daten verglichen. Das TREM-Modell bestimmt den Endenergiebedarf auf der Grundlage der wahrscheinlichsten Variationen der einflussreichsten Eingangsparameter mit Hilfe einer Monte-Carlo-Simulation. Im Gegensatz zu bestehenden Modellierungsansätzen liefert das Modell damit auch einen Bereich mit Wahrscheinlichkeitsbändern für den zukünftigen Endenergiebedarf. Die Ergebnisse des TREM-Modells zeigen, dass das Modell genauere Ergebnisse liefern kann als derzeitige Modelle mit einem Mittelwert der prozentualen Differenz niedriger als 5% und einem Korrelationskoeffizienten r höher als 0,35 und darüber hinaus dazu geeignet ist, ohne Anpassungen eine Prognose der Entwicklung des zukünftigen Endenergiebedarfs im Wohnungssektor für unterschiedliche Länder zu erstellen.
Der vorliegende Beitrag ist in zwei thematische Teilebereiche gegliedert. Der erste Teil beschäftigt sich mit der Analyse von Graphen, insbesondere von Graphen, die Straßennetzwerke repräsentieren. Hierzu werden Methoden aus der Graphentheorie angewendet und Kenngrößen aus der Space Syntax Methode ausgewertet. Ein Framework, welches basierend auf der Graphentheorie in Architektur und Stadtplanung Einzug gehalten hat, ist die Space Syntax Methode. Sie umfasst die Ableitung unterschiedlicher Kenngrößen eines Graphen bzw. Netzwerkes, wodurch eine Analyse für architektonische und stadtplanerische Zwecke ermöglicht wird.
Der zweite Teil dieses Berichts beschäftigt sich mit der Generierung von Graphen, insbe-sondere der von Straßennetzwerkgraphen. Die generativen Methoden basieren zum Teil auf den gewonnenen Erkenntnissen der Analyse von Straßennetzwerken. Es werden unterschiedliche Ansätze untersucht, um verschiedene Parameterwerte zur Generierung von Straßengraphen festzulegen. Als Ergebnis der Arbeiten ist ein Softwaretool entstanden, welches es erlaubt, auf Grundlage einer Voronoi-Tesselierung realistische Straßennetzwerkgraphen zu erzeugen.
Bisherige Untersuchungen zum hydraulischen Grundbruch im bindigen Baugrund haben gezeigt, dass der Versagensmechanismus durch hydraulisch induzierte Risse ausgelöst wird. Um umströmte Bauwerke im Grundwasser sicher zu dimensionieren, ist daher ein Nachweis gegen hydraulisch induzierte Rissentstehung unerlässlich. Ein solcher existiert bisher jedoch nicht, da die Rissentstehung in bindigen Böden äußerst komplex ist und die zahlreichen Einflussgrößen nicht ausreichend untersucht sind. Aus diesem Grund wurde im Rahmen dieser Dissertation eine Laborstudie zu hydraulisch induzierter Rissbildung in verschiedenen feinkörnigen Böden in einem neuartigen Triaxialversuch durchgeführt. Aus den zahlreichen Versuchsvarianten lassen sich die wichtigsten Einflussgrößen auf den Widerstand des Bodens gegen Rissentstehung ermitteln. Die experimentelle Arbeit wird durch eine numerische Analyse der Versuchsvariationen ergänzt. Daraus lässt sich eine Hypothese zur Rissentstehung in bindigen Böden ableiten, die in Einklang mit der klassischen Bruchmechanik steht.
Analyse von Terminplänen
(2014)
Das Bachelorprojekt „Analyse von Terminplänen“ beschäftigt sich mit der Analyse der Abhängigkeiten zwischen den unterschiedlichen Vorgängen des Bauablaufs. Die Problematik in der Terminplanerstellung liegt darin, dass ein Terminplan nicht alle Hintergrundinformationen abbildet und es daher zu Projektverzögerungen und Absprachefehlern kommen kann. Dieses Bachelorprojekt macht Gebrauch von bereits aufbereiteten Informationen zur genannten Problematik in Form eines vorangegangen Bachelorprojekts und eines Masterprojekts, sowie einer Umfrage des Instituts für Bauwirtschaft der Universität Kassel.
In diesem Projekt werden 50 neue und 100 bereits existierende Terminpläne von diversen Unternehmen aus ganz Deutschland analysiert und ausgewertet. Die Analyse der Terminpläne basiert auf geführten Experteninterviews. Das Interview berücksichtigt Faktoren wie zum Beispiel Darstellungsformen, Detaillierungsgrade, Abhängigkeiten, Vorgangsdauern oder Planungsgrundlagen. Durch die Befragung von möglichst vielen Firmen konnte festgestellt werden, dass jeder Terminplanentwickler eine Vorgehensweise entwickelt, nach welcher er arbeitet. Außerdem ist in den Gesprächen deutlich geworden, dass das Theorie- Praxis-Gefälle sehr groß ist. Das heißt, dass theoretische Modelle aus der Ausbildung an beispielsweise Hochschulen, in der Praxis heutzutage wenig angewandt werden.
Nach der Analyse der Terminpläne und Auswertung der Interviews, werden die Daten in eine vom vorangehenden Masterprojekt erstellte Excel-Tabelle eingepflegt. Die vorhandenen Informationen werden dann anhand verschiedenster Diagramme verglichen und ausgewertet.
Ziel der Arbeit ist es, einen Beitrag zur Weiterentwicklung und Adaption der Holz-Beton-Verbundbauweise auf den Straßenbrückenbau zu leisten. Dabei stehen differenzierte Untersuchungen zum Trag- und Verformungsverhalten hybrider Holzbrückentragwerke sowie die Entwicklung geeigneter Verbundelemente im Vordergrund. Um die Einführung dieser innovativen Bauweise in der Praxis zu unterstützen, werden Bemessungs- und Konstruktionshinweise erarbeitet. Aufbauend auf eine Analyse des derzeitigen Forschungs- und Entwicklungsstandes auf dem Gebiet des Holz-Beton-Verbundbaus erfolgt die Untersuchung des Trag- und Verformungsverhaltens von Holz-Beton-Verbundbrücken anhand einer umfangreichen Parameterstudie. Dabei wird der Einfluss verschiedener Geometrie- und Steifigkeitsparameter auf die Tragfähigkeit und Gebrauchstauglichkeit von Holz-Beton-Verbundbrücken quantifiziert. Spezielle Untersuchungen dienen der Evaluation der Ermüdungssicherheit und der Ermittlung der Steifigkeitsdegradation unter Langzeitbeanspruchung auf der Basis einer realitätsnahen Abbildung des differenten zeit- und klimaabhängigen Tragverhaltens der Verbundbaustoffe. Praxisgerechte Empfehlungen für die optimierte konstruktive Durchbildung hybrider Holzbrückentragwerke fassen die Ergebnisse der Parameterstudie zusammen. Aus den Parameteranalysen leitet sich ein Anforderungsprofil bezüglich der Steifigkeit und Tragfähigkeit geeigneter Verbundelemente für den Straßenbrückenbau ab. Das Tragverhalten von drei ausgewählten Verbundelementtypen, welche diesem Profil entsprechen, wird anhand systematischer Scherversuche unter Kurzzeit-, Langzeit- und dynamischer Belastung analysiert. Aufbauend auf diese Testreihen werden weiterführende umfangreiche Versuchsserien mit dem Verbundelement Dübelleiste zur Bestimmung der mechanischen Kennwerte und zur Analyse des Gesamttragverhaltens vorgestellt. In Auswertung der umfangreichen Bauteilversuche und rechnerischer Simulationen auf der Basis Finiter-Elemente-Modelle wird ein Bemessungskonzept erarbeitet und die Eignung des Verbundelementes Dübelleiste für den Einsatz im Hybridbrückenbau nachgewiesen.
Analysis of the reinforced concrete chimney geometry changes and their influence on the stresses in the chimney mantle was made. All the changes were introduced to a model chimney and compared. Relations between the stresses in the mantle of the chimney and the deformations determined by the change of the chimney's vertical axis geometry were investigated. The vertical axis of chimney was described by linear function (corresponding to the real rotation of the chimney together with the foundation), and by parabolic function (corresponding to the real dislocation of the chimney under the influence of the horizontal forces - wind). The positive stress pattern in the concrete as well as the negative stress pattern in the reinforcing steel have been presented. The two cases were compared. Analysis of the stress changes in the chimney mantle depending on the modification in the thickness of the mantle (the thickness of the chimney mantle was altered in the linear or the abrupt way) was carried out. The relation between the stresses and the chimney's diameter change from the bottom to the top of the chimney was investigated. All the analyses were conducted by means of a specially developed computer program created in Mathematica environment. The program makes it also possible to control calculations and to visualize the results of the calculations at every stage of the calculation process.
This thesis focuses on the analysis and design of hash functions and authenticated encryption schemes that are blockcipher based. We give an introduction into these fields of research – taking in a blockcipher
based point of view – with special emphasis on the topics of double length, double call blockcipher based compression functions. The first main topic (thesis parts I - III) is on analysis and design of
hash functions. We start with a collision security analysis of some well known double length blockcipher based compression functions and hash functions: Abreast-DM, Tandem-DM and MDC-4. We also propose new double length compression functions that have elevated collision security guarantees. We complement the collision analysis with a preimage analysis by stating (near) optimal security results for Abreast-DM, Tandem-DM, and Hirose-DM. Also, some generalizations are discussed. These are the first preimage security results for blockcipher based double length hash functions that go beyond the birthday barrier.
We then raise the abstraction level and analyze the notion of ’hash function indifferentiability from a random oracle’. So we not anymore focus on how to obtain a good compression function but, instead, on how to obtain a good hash function using (other) cryptographic primitives. In particular we give some examples when this strong notion of hash function security might give questionable advice for building a practical hash function. In the second main topic (thesis part IV), which is on authenticated encryption schemes, we present an on-line authenticated encryption scheme, McOEx, that simultaneously achieves privacy and confidentiality and is secure against nonce-misuse. It is the first dedicated scheme that achieves high standards of security and – at the same time – is on-line computable.
The paper gives a general overview and concerns with a specified set of computer-aided analysis modules for hybrid structures loaded by extreme excitations. All problems are solved by methods of linear, quadratic or nonlinear mathematical optimization, that leads to very effective and economic design solutions. All approaches are derived from general optimization problem that can be easily altered to conform to specific design tasks. Some advantages and possibilities of hybrid structural modeling (single or mixed model-supported) are discussed. The methods will be illustrated by an example structure and optimization schemes.
The steel structure design codes require to check up the member strength when evaluating plastic deformations. The model of perfectly plastic material is accepted. The strength criteria for simple cross-sections (I section, etc.) of steel members are given in design codes. The analytical strength criteria for steel cross-sections and numerical approaches based on stepwise procedure are investigated in many articles. Another way for checking the carrying capacity of cross-sections is the use of methods that are applied for defining strain-deformed state of elastic perfectly plastic systems. In this paper non-iterative methods are suggested for checking strength of cross-sections. Carrying capacity of cross section is verified according to extremum principle of plastic fail under monotonically loading and the strain-deformed state of cross-section is defined according to extremum energy principals of elastic potential of residual stresses and complementary work of residual displacements. The mathematical expressions of these principals for discrete cross-section are formulated as problems of convex mathematical programming. The cross-section of steel member using finite element method is divided into free form plane elements. The constant distribution of stresses along the finite element is accepted. The relationships of finite elements for static formulation of the problem are formed so, that kinematics formulation relationships could be obtained in a formal way using the theory of duality. Numerical examples of determination of cross-section strength, composition of interactive curves and composition of moment-curvature curves for different axial force levels are presented.
This thesis deals with the basic design and rigorous analysis of cryptographic schemes and primitives, especially of authenticated encryption schemes, hash functions, and password-hashing schemes.
In the last decade, security issues such as the PS3 jailbreak demonstrate that common security notions are rather restrictive, and it seems that they do not model the real world adequately. As a result, in the first part of this work, we introduce a less restrictive security model that is closer to reality. In this model it turned out that existing (on-line) authenticated encryption schemes cannot longer beconsidered secure, i.e. they can guarantee neither data privacy nor data integrity. Therefore, we present two novel authenticated encryption scheme, namely COFFE and McOE, which are not only secure in the standard model but also reasonably secure in our generalized security model, i.e. both preserve full data inegrity. In addition, McOE preserves a resonable level of data privacy.
The second part of this thesis starts with proposing the hash function Twister-Pi, a revised version of the accepted SHA-3 candidate Twister. We not only fixed all known security issues
of Twister, but also increased the overall soundness of our hash-function design.
Furthermore, we present some fundamental groundwork in the area of password-hashing schemes. This research was mainly inspired by the medial omnipresence of password-leakage incidences. We show that the password-hashing scheme scrypt is vulnerable against cache-timing attacks due to the existence of a password-dependent memory-access pattern. Finally, we introduce Catena the first password-hashing scheme that is both memory-consuming and resistant against cache-timing attacks.
Individual views on a building product of people involved in the design process imply different models for planning and calculation. In order to interpret these geometrical, topological and semantical data of a building model we identify a structural component graph, a graph of room faces, a room graph and a relational object graph as aids and we explain algorithms to derive these relations. The application of the technique presented is demonstrated by the analysis and discretization of a sample model in the scope of building energy simulation.
Analysis of Functionally Graded Porous Materials Using Deep Energy Method and Analytical Solution
(2022)
Porous materials are an emerging branch of engineering materials that are composed of two elements: One element is a solid (matrix), and the other element is either liquid or gas. Pores can be distributed within the solid matrix of porous materials with different shapes and sizes. In addition, porous materials are lightweight, and flexible, and have higher resistance to crack propagation and specific thermal, mechanical, and magnetic properties. These properties are necessary for manufacturing engineering structures such as beams and other engineering structures. These materials are widely used in solid mechanics and are considered a good replacement for classical materials by many researchers recently. Producing lightweight materials has been developed because of the possibility of exploiting the properties of these materials. Various types of porous material are generated naturally or artificially for a specific application such as bones and foams. Like functionally graded materials, pore distribution patterns can be uniform or non-uniform. Biot’s theory is a well-developed theory to study the behavior of poroelastic materials which investigates the interaction between fluid and solid phases of a fluid-saturated porous medium.
Functionally graded porous materials (FGPM) are widely used in modern industries, such as aerospace, automotive, and biomechanics. These advanced materials have some specific properties compared to materials with a classic structure. They are extremely light, while they have specific strength in mechanical and high-temperature environments. FGPMs are characterized by a gradual variation of material parameters over the volume. Although these materials can be made naturally, it is possible to design and manufacture them for a specific application. Therefore, many studies have been done to analyze the mechanical and thermal properties of FGPM structures, especially beams.
Biot was the pioneer in formulating the linear elasticity and thermoelasticity equations of porous material. Since then, Biot's formulation has been developed in continuum mechanics which is named poroelasticity. There are obstacles to analyzing the behavior of these materials accurately like the shape of the pores, the distribution of pores in the material, and the behavior of the fluid (or gas) that saturated pores. Indeed, most of the engineering structures made of FGPM have nonlinear governing equations. Therefore, it is difficult to study engineering structures by solving these complicated equations.
The main purpose of this dissertation is to analyze porous materials in engineering structures. For this purpose, the complex equations of porous materials have been simplified and applied to engineering problems so that the effect of all parameters of porous materials on the behavior of engineering structure has been investigated.
The effect of important parameters of porous materials on beam behavior including pores compressibility, porosity distribution, thermal expansion of fluid within pores, the interaction of stresses between pores and material matrix due to temperature increase, effects of pore size, material thickness, and saturated pores with fluid and unsaturated conditions are investigated.
Two methods, the deep energy method, and the exact solution have been used to reduce the problem hypotheses, increase accuracy, increase processing speed, and apply these in engineering structures. In both methods, they are analyzed nonlinear and complex equations of porous materials.
To increase the accuracy of analysis and study of the effect of shear forces, Timoshenko and Reddy's beam theories have been used. Also, neural networks such as residual and fully connected networks are designed to have high accuracy and less processing time than other computational methods.
Steel profiles with slender cross-sections are characterized by their high susceptibility to instability phenomena, especially local buckling, which are intensified under fire conditions. This work presents a study on numerical modelling of the behaviour of steel structural elements in case of fire with slender cross-sections. To accurately carry out these analyses it is necessary to take into account those local instability modes, which normally is only possible with shell finite elements. However, aiming at the development of more expeditious methods, particularly important for analysing complete structures in case of fire, recent studies have proposed the use of beam finite elements considering the presence of local buckling through the implementation of a new effective steel constitutive law. The objective of this work is to develop a study to validate this methodology using the program SAFIR. Comparisons are made between the results obtained applying the referred new methodology and finite element analyses using shell elements. The studies were made to laterally restrained beams, unrestrained beams, axially compressed columns and columns subjected to bending plus compression.
A numerical analysis of the mode of deformation of the main load-bearing components of a typical frame sloping shaft headgear was performed. The analysis was done by a design model consisting of plane and solid finite elements, which were modeled in the program «LIRA». Due to the numerical results, the regularities of local stress distribution under a guide pulley bearing were revealed and parameters of a plane stress under both emergency and normal working loads were determined. In the numerical simulation, the guidelines to improve the construction of the joints of guide pulleys resting on sub-pulley frame-type structures were established. Overall, the results obtained are the basis for improving the engineering procedures of designing steel structures of shaft sloping headgear.
In this work, we present a deep collocation method (DCM) for three-dimensional potential problems in non-homogeneous media. This approach utilizes a physics-informed neural network with material transfer learning reducing the solution of the non-homogeneous partial differential equations to an optimization problem. We tested different configurations of the physics-informed neural network including smooth activation functions, sampling methods for collocation points generation and combined optimizers. A material transfer learning technique is utilized for non-homogeneous media with different material gradations and parameters, which enhance the generality and robustness of the proposed method. In order to identify the most influential parameters of the network configuration, we carried out a global sensitivity analysis. Finally, we provide a convergence proof of our DCM. The approach is validated through several benchmark problems, also testing different material variations.
This paper presents two new methods for analysis of a technical state of large-panel residential buildings. The first method is based on elements extracted from the classical methods and on data about repairs and modernization collected from building documentations. The technical state of a building is calculated as a sum of several groups of elements defining the technical state. The deterioration in this method depends on: - time, which has passed since last repair of element or time which has passed since construction, - estimate of the state of element groups which can be determined on basis of yearly controls. This is a new unique method. it is easy to use, does not need expertise. The required data could be extracted easily from building documentations. For better accuracy the data from building inspections should be applied (in Poland inspections are made every year). The second method is based on the extracted data processing by means of the artificial neural networks. The aim is to learn the artificial neural network configurations for a set of data containing values of the technical state and information about building repairs for last years (or other information and building parameters) and next to analyse new buildings by the instructed neural network. The second profit from using artificial neural networks is the reduction of number of parameters. Instead of more then 40 parameters describing building, about 6-12 are usually sufficient for satisfactory accuracy. This method could have lower accuracy but it is less prone to data errors.
Procedures of a construction of general solutions for some classes of partial differential equations (PDEs) are proposed and a symmetry operators approach to the raising the orders of the polynomial solutions to linear PDEs are develops. We touch upon an ''operator analytic function theory'' as the solution of a frequent classes of the equations of mathematical physics, when its symmetry operators forms vast enough space. The MAPLE© package programs for the building the operator variables is elaborated also.
Self-healing materials have recently become more popular due to their capability to autonomously and autogenously repair the damage in cementitious materials. The concept of self-healing gives the damaged material the ability to recover its stiffness. This gives a difference in comparing with a material that is not subjected to healing. Once this material is damaged, it cannot sustain loading due to the stiffness degradation. Numerical modeling of self-healing materials is still in its infancy. Multiple experimental researches were conducted in literature to describe the behavior of self-healing of cementitious materials. However, few numerical investigations were undertaken.
The thesis presents an analytical framework of self-healing and super healing materials based on continuum damage-healing mechanics. Through this framework, we aim to describe the recovery and strengthening of material stiffness and strength. A simple damage healing law is proposed and applied on concrete material. The proposed damage-healing law is based on a new time-dependent healing variable. The damage-healing model is applied on isotropic concrete material at the macroscale under tensile load. Both autonomous and autogenous self-healing mechanisms are simulated under different loading conditions. These two mechanisms are denoted in the present work by coupled and uncoupled self-healing mechanisms, respectively. We assume in the coupled self-healing that the healing occurs at the same time with damage evolution, while we assume in the uncoupled self-healing that the healing occurs when the material is deformed and subjected to a rest period (damage is constant). In order to describe both coupled and uncoupled healing mechanisms, a one-dimensional element is subjected to different types of loading history.
In the same context, derivation of nonlinear self-healing theory is given, and comparison of linear and nonlinear damage-healing models is carried out using both coupled and uncoupled self-healing mechanisms. The nonlinear healing theory includes generalized nonlinear and quadratic healing models. The healing efficiency is studied by varying the values of the healing rest period and the parameter describing the material characteristics. In addition, theoretical formulation of different self-healing variables is presented for both isotropic and anisotropic maerials. The healing variables are defined based on the recovery in elastic modulus, shear modulus, Poisson's ratio, and bulk modulus. The evolution of the healing variable calculated based on cross-section as function of the healing variable calculated based on elastic stiffness is presented in both hypotheses of elastic strain equivalence and elastic energy equivalence. The components of the fourth-rank healing tensor are also obtained in the case of isotropic elasticity, plane stress and plane strain.
Recent research revealed that self-healing presents a crucial solution also for the strengthening of the materials. This new concept has been termed ``Super Healing``. Once the stiffness of the material is recovered, further healing can result as a strengthening material. In the present thesis, new theory of super healing materials is defined in isotropic and anisotropic cases using sound mathematical and mechanical principles which are applied in linear and nonlinear super healing theories. Additionally, the link of the proposed theory with the theory of undamageable materials is outlined. In order to describe the super healing efficiency in linear and nonlinear theories, the ratio of effective stress to nominal stress is calculated as function of the super healing variable. In addition, the hypotheses of elastic strain and elastic energy equivalence are applied. In the same context, new super healing matrix in plane strain is proposed based on continuum damage-healing mechanics.
In the present work, we also focus on numerical modeling of impact behavior of reinforced concrete slabs using the commercial finite element package Abaqus/Explicit. Plain and reinforced concrete slabs of unconfined compressive strength 41 MPa are simulated under impact of ogive-nosed hard projectile. The constitutive material modeling of the concrete and steel reinforcement bars is performed using the Johnson-Holmquist-2 damage and the Johnson-Cook plasticity material models, respectively. Damage diameters and residual velocities obtained by the numerical model are compared with the experimental results and effect of steel reinforcement and projectile diameter is studied.
Web applications that are based on user-generated content are often criticized for containing low-quality information; a popular example is the online encyclopedia Wikipedia. The major points of criticism pertain to the accuracy, neutrality, and reliability of information. The identification of low-quality information is an important task since for a huge number of people around the world it has become a habit to first visit Wikipedia in case of an information need. Existing research on quality assessment in Wikipedia either investigates only small samples of articles, or else deals with the classification of content into high-quality or low-quality. This thesis goes further, it targets the investigation of quality flaws, thus providing specific indications of the respects in which low-quality content needs improvement. The original contributions of this thesis, which relate to the fields of user-generated content analysis, data mining, and machine learning, can be summarized as follows:
(1) We propose the investigation of quality flaws in Wikipedia based on user-defined cleanup tags. Cleanup tags are commonly used in the Wikipedia community to tag content that has some shortcomings. Our approach is based on the hypothesis that each cleanup tag defines a particular quality flaw.
(2) We provide the first comprehensive breakdown of Wikipedia's quality flaw structure. We present a flaw organization schema, and we conduct an extensive exploratory data analysis which reveals (a) the flaws that actually exist, (b) the distribution of flaws in Wikipedia, and, (c) the extent of flawed content.
(3) We present the first breakdown of Wikipedia's quality flaw evolution. We consider the entire history of the English Wikipedia from 2001 to 2012, which comprises more than 508 million page revisions, summing up to 7.9 TB. Our analysis reveals (a) how the incidence and the extent of flaws have evolved, and, (b) how the handling and the perception of flaws have changed over time.
(4) We are the first who operationalize an algorithmic prediction of quality flaws in Wikipedia. We cast quality flaw prediction as a one-class classification problem, develop a tailored quality flaw model, and employ a dedicated one-class machine learning approach. A comprehensive evaluation based on human-labeled Wikipedia articles underlines the practical applicability of our approach.
The most fundamental understating of hybridization methodology takes the form of stable but dynamic notions, accumulated over time in the memory of individuals. Schematized and abstracted, the hybrids representation needs to be reproduced and reused in order to reconstruct and bring back other memories. Reinvented, or reused hybrids can support getting access to social, traditional, religious understanding of nations. In this manner, they take the form of the messenger / the mediator an innate, equivalent to the use of mental places in the art of memory. We remember mythology in order to remember other things.
From individual memory perspective, or group collective memory, the act of recollection is assumed to be an individual act, biologically based in the brain, but by definition conditioned by social collectives. Following Halbwachs, this thesis does not recognize a dichotomy between individual and collective memory as two different types of remembering. Conversely, the collective is thought of as inherent to individual thought, questioning perspectives that regard individual recollection as isolated from social settings. The individual places himself in relation to the group and makes use of the collective frameworks of thought when he localizes and reconstructs the past, whether in private or in social settings. The frameworks of social relations, of time, and of space are constructs originating in social interaction and distributed in the memory of the group members. The individual has his own perspective on the collective frameworks of the group, and the group’s collective frameworks can be regarded as a common denominator of the individual outlooks on the framework.
In acts of remembering, the individual may actualize the depicted symbols in memory, but he could also employ precepts from the environment. The latter have been referred to as material or external frameworks of memory, suggesting their similar role as catalysts for processes of remembrance such as that of the hybrids in my paintings. It is only with reference to the hybrids, who work as messengers / mediators with a dual nature, that communicate between the past and the present, the internal and external space, that individual memory and group memory is in focus.
The exhibition at the Egyptian museum in Leipzig is my practical method to create a communicative memory, using hybrids as mediators in cultural transimission, as when the act refers to informal and everyday situations in which group members informally search for the past, it takes place in the communicative
162
memory. As explained in chapter one, the exhibition at the Egyptian museum in Leipzig is an act of remembering in search for the past with support of my paintings, which then can considered as part of the cultural memory.
In addition to the theoretical framework summarized above, I have applied my hypothesis practically in the form of the public exhibition, and shared the methodology with public audience from Cairo / Egypt and Leipzig / German in the form of visual art workshops and open discussions. I have also suggested an analyzed description of the meaning of hybrids in my artwork as mediators and messengers for the purpose of cultural transmission, as well as in relation to other artists’ work and use of a similar concept.
By using my hybrid creatures in my visual artwork, I am creating a bridge, mediators to represent both the past and the present, what we remember of the past, and how we understand the past. It is as explained in chapter two; that the hybridization methodology in terms of double membership represented in different cultures –Cairo / Egypt and Leipzig / Germany- can provide a framework which allows artistic discussions and could be individually interpreted, so individual cultures / individual memory can become transparent without losing their identities and turn into communicative memory. This transmission through the hybridization theoretical approech was explicitly clarified with the support of Krämer’s hypothesis. The practical attempt was examined by creating a relationship between the witness –me as an artist– and the audience –the exhibition visitors–, to cross space and time, not to bridge differences, rather to represent the contrasts transparently.
The Kin-making proposition is adopted by many academics and scholars in modern society and theoretical research; the topic was represented in the roots of the ancient Egyptian mindset and supported theoretically by similar understandings such as Haraway’s definition of kin-making. The practical implementation of kin- making can be observed in many of my artwork and was analyzed visually and artistically in chapter three.
My practical project outcome tested success by using hybrids in my paintings as mediators, it opened a communicative artistic discussion. This methodology gave a possible path of communication through paintings / visual analyses, and offered relativity through image self-interpretation.
In this work, molecular separation of aqueous-organic was simulated by using combined soft computing-mechanistic approaches. The considered separation system was a microporous membrane contactor for separation of benzoic acid from water by contacting with an organic phase containing extractor molecules. Indeed, extractive separation is carried out using membrane technology where complex of solute-organic is formed at the interface. The main focus was to develop a simulation methodology for prediction of concentration distribution of solute (benzoic acid) in the feed side of the membrane system, as the removal efficiency of the system is determined by concentration distribution of the solute in the feed channel. The pattern of Adaptive Neuro-Fuzzy Inference System (ANFIS) was optimized by finding the optimum membership function, learning percentage, and a number of rules. The ANFIS was trained using the extracted data from the CFD simulation of the membrane system. The comparisons between the predicted concentration distribution by ANFIS and CFD data revealed that the optimized ANFIS pattern can be used as a predictive tool for simulation of the process. The R2 of higher than 0.99 was obtained for the optimized ANFIS model. The main privilege of the developed methodology is its very low computational time for simulation of the system and can be used as a rigorous simulation tool for understanding and design of membrane-based systems.
Highlights are, Molecular separation using microporous membranes. Developing hybrid model based on ANFIS-CFD for the separation process, Optimization of ANFIS structure for prediction of separation process
Petri-Netze und deren Erweiterungen stellen ein leistungsfähiges Instrument zur Model-lierung, Simulation und Animation von Systemen bzw. Prozessen dar. Mathematische Methoden die sowohl analytisch beschreibbar als auch graphisch darstellbar sind, wie z. B. Warteschlangenprobleme, Netzpläne, Suche optimaler Wege in Netzen bzw. Dynamische Optimierung, können mit Hilfe von Petri-Netzen modelliert werden. Werden Petri-Netze zur graphischen Darstellung gewählt, so können die Stellen (passive Knoten) mit Markenverweilzeiten sowie die Transitionen (aktive Knoten) mit Schaltzeiten belegt werden. Für die Zeiten sind deterministische bzw. stochastische Größen einsetzbar. Wird dem Gesamtnetz eine zentrale Uhr und den einzelnen zeitbehafteten Knoten jeweils eine lokale Uhr zugeordnet, so lassen sich die Prozeßabläufe mittels Animation sichtbar machen. Ein an der Professur Computergestützte Techniken entwickeltes Programmsystem dient zur Demonstration der einzelnen Probleme. In anschaulicher Weise kann damit das Ver-ständnis für die genannten Methoden sowie die mit ihrer Hilfe dargestellten Prozesse erleichtert werden.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
The Carbon journal is pleased to introduce a themed collection of recent articles in the area of computational carbon nanoscience. This virtual special issue was assembled from previously published Carbon articles by Guest Editors Quan Wang and Behrouz Arash, and can be accessed as a set in the special issue section of the journal website homepage: www.journals.elsevier.com/carbon. The article below by our guest editors serves as an introduction to this virtual special issue, and also a commentary on the growing role of computation as a tool to understand the synthesis and properties of carbon nanoforms and their behavior in composite materials.
Die technische Entwicklung, insbesondere auf dem Gebiet der Digitaltechnik eröffnet heute neue und sehr weitreichende Möglichkeiten für die Automatisierung in Zweck- und Wohnbauten. Die zur Verfügung stehenden technischen Komponenten (intelligente Sensoren und Aktoren sowie ein hausinternes Netz für die Datenübertragung -Feldbus-) unterscheiden sich für diese Einsatzfälle kaum. Die Zielstellungen sind jedoch gänzlich andere. Intelligenz im Wohnbau bedeutet vor allem intelligente Alltagsbewältigung (z.B. Zeiteinsparung), Komfort und Wohlbefinden. Daß im Heimbereich nichtfunktionale Faktoren (Human Interface, Ästhetik, Preis, Attraktivität) eine große Rolle spielen, ist in das Problembewußtsein der Gerätehersteller und Käufer getreten. Im Bereich der Heimautomatisierung werden zunehmend moderne, die Möglichkeiten der konventioellen Steuerungs- und Regelungstechnik ergänzende Technologien wie Fuzzy- Steuerungen zur Optimierung der internen Arbeitsweise von Geräten eingesetzt. Die informatorische Vernetzung im Wohnbau unterstützt darüberhinaus wichtige Anliegen des Gebäudemanagements (energetische, ergonomische und ökologische Betrachtungen der Gebäudenutzung unter wirtschaftlichen Gesichtspunkten).
Die technische Entwicklung, insbesondere auf dem Gebiet der Digitaltechnik eröffnet heute neue und sehr weitreichende Möglichkeiten für die Automatisierung in Zweck- und Wohnbauten. Die zur Verfügung stehenden technischen Komponenten (intelligente Sensoren und Aktoren sowie ein hausinternes Netz für die Datenübertragung -Feldbus-) unterscheiden sich für diese Einsatzfälle kaum. Die Zielstellungen sind jedoch gänzlich andere. Intelligenz im Wohnbau bedeutet vor allem intelligente Alltagsbewältigung (z.B. Zeiteinsparung), Komfort und Wohlbefinden. Daß im Heimbereich nichtfunktionale Faktoren (Human Interface, Ästhetik, Preis, Attraktivität) eine große Rolle spielen, ist in das Problembewußtsein der Gerätehersteller und Käufer getreten. Im Bereich der Heimautomatisierung werden zunehmend moderne, die Möglichkeiten der konventioellen Steuerungs- und Regelungstechnik ergänzende Technologien wie Fuzzy- Steuerungen zur Optimierung der internen Arbeitsweise von Geräten eingesetzt. Die informatorische Vernetzung im Wohnbau unterstützt darüberhinaus wichtige Anliegen des Gebäudemanagements (energetische, ergonomische und ökologische Betrachtungen der Gebäudenutzung unter wirtschaftlichen Gesichtspunkten).
Anti-Gewalttrainings, Gewaltwissen und die institutionelle Erzeugung gewaltbefreiter Subjekte
(2023)
Dieser Beitrag fragt danach, wie Wissen über Gewalt in Anti-Gewalttrainings produziert, vermittelt und sozial wirkmächtig wird. Auf Basis des kommunikativen Konstruktivismus werden diese Kurse als gewaltbezogene Institutionen begriffen, in denen eine Wissensordnung der Gewalt stabilisiert wird. Sie sollen Abweichungen von institutionalisierten Wirklichkeitsvorstellungen in Bezug auf Gewalt entgegenwirken. Dabei lassen sie sich als Selbsttechniken begreifen, durch welche die Kursteilnehmer*innen eine spezifische Subjektposition einüben, nämlich die des gewaltbefreiten Subjekts. Vor diesem Hintergrund wird anschließend zwischen konditionalen und konzessiven Anti-Gewalttrainings unterschieden. Erstere wenden sich an Personen, die tatsächlich von der institutionalisierten Wirklichkeitsvorstellung abgewichen sind und somit gesellschaftlich als Gewalttäter*innen eingestuft werden, während Letztere auf eine Klientel zielen, die potenziell von den gängigen Normen abweichen könnte, obwohl noch keine Gewalt aufgetreten sein muss. Abschließend wird gezeigt, dass den Kursleiter*innen eine wichtige Rolle im Subjektivierungsprozess und der Wissenskommunikation über Gewalt zukommt. Neben Wissen über Gewalt werden durch sie auch Wertbindungen, Legitimationen und Weltbilder vermittelt.
Ausgehend von den klassischen Variationsprinzipien der Mechanik werden kinematische und gemischte Extremalprinzipe abgeleitet, die zur Beschreibung geometrisch und physikalisch nichtlinearen Tragverhaltens geeignet sind. Ein Schwerpunkt der Arbeit besteht in der Anwendung der Prinzipe zur Analyse und Bemessung von Stahlbeton-, Spannbeton- und Verbundquerschnitten. Aus einem einheitlichen Berechnungsmodell wird eine Vielzahl praxisrelevanter Problemstellungen abgeleitet. Ein weiterer Schwerpunkt ist die Anwendung der kinematischen Extremalformulierung für die geometrisch und physikalisch nichtlineare Berechnung von Stabtragwerken.
In den zurückliegenden Jahren wurden an der Professur Massivbau I umfangreiche Untersuchungen zur Modellbildung und rechnerischen Erfassung des Tragverhaltens von Tragwerken und Tragwerkselementen aus Stahlbeton und Spannbeton unter Berücksichtigung von Rißbildungen und Plastizierungen durchgeführt. Diesen Untersuchungen liegt als einheitliches methodisches Konzept der mathematischen Problembeschreibung und Problemlösung die mathematische Optimierung zugrunde. Bereits anläßlich des IKM 1994 [1] hatte der Verfasser Gelegenheit, zusammenfassend über Ergebnisse bei der Anwendung der mathematischen Optimierung im Bereich der nichtlinearen Tragwerksanalyse zu berichten. Der vorliegende Beitrag, soll einen Überblick über seitdem untersuchte Problemkreise und dabei gewonnene Ergebnisse und Erfahrungen vermitteln. Bei der Anwendung der linearen und quadratischen Optimierung sind wegen der geforderten Linearität der Nebenbedingungen Vereinfachungen bei der Modellbildung des stahlbetonspezifischen Tragverhaltens unumgänglich. Besonders betroffen sind die Ansätze zur Beschreibungen des Materialverhaltens. Durch den Einsatz allgemeiner nichtlinearer mathematischer Optimierungsmethoden lässt sich eine methodisch bedingte Linearisierung des Berechnungsmodells umgehen....
Moderne Bemessungskonzepte für seismisch beanspruchte Hochbauten, wie die Methode der Kapazitäts-bemessung, planen inelastisches Verhalten einzelner Bereiche der Konstruktion beim Entwurf bewußt ein, um so einen Teil der durch das Beben eingetragenen Energie als inelastische Formänderungsarbeit zu absorbieren. Wird bei Akzeptanz inelastischen Verhaltens eine bestimmte Belastungsintensität, die als adaptive Grenzlast oder Einspiellast bezeichnet wird, überschritten, kann es infolge zyklischer Einwirkungen zu einer unbe-grenzten Akkumulation inelastischer Deformationen kommen. Die adaptive Grenzlast stellt damit für zyklische Einwirkungen eine geeignete Kenngröße zur Bewertung der Tragwerksqualität dar, bei der neben der Sicherung des Gleichgewichts ein bestimmtes Schädigungsniveau nicht überschritten wird. Im vorliegenden Beitrag werden die Grundzüge eines Bemessungs- und Nachweiskonzeptes für seismisch beanspruchte Stahlbetontragwerke, das unter Einbeziehung der Grundprinzipe der Kapazitätsbemessung von einem einheitlichen Kriterium zur Beschreibung des Grenzzustandes der Tragfähigkeit auf der Basis der adaptive Grenzlast ausgeht, vorgestellt. Dabei ist die Abschätzung der Verformungen notwendiger Bestandteil des Nachweis- bzw. Bemessungskonzeptes. Bei Druckgliedern ist die Berücksichtigung des Einflusses der Verformungen notwendiger Bestandteil des Bemessungskonzeptes. Entsprechende Erweiterungen der Berechnungsmodelle zur Berücksichtigung des Einflusses geometrisch nichtlinearer Effekte im Sinne einer Theorie II. Ordnung werden vorgestellt.
Die vorliegende Arbeit beschäftigt sich mit der geometrischen Suffosionsbeständigkeit von Erdstoffen. Mit dem wahrscheinlichkeitstheoretischen Ansatz der Perkolationstheorie wurde ein analytisches Verfahren gewählt, mit dem suffosive Materialtransportprozesse modelliert und quantifiziert werden können. Mit dem verwendeten Perkolationsmodell wurde eine beliebige Porenstruktur eines realen Erdstoffes im 3-Dimensionalen modelliert. Mögliche Materialtransportprozesse innerhalb der modellierten Porenstruktur wurden anschließend simuliert. Allgemein gültige Gesetzmäßigkeiten wurden hergeleitet und Grenzbedingungen formuliert. Diese sind vom Erdstoff unabhängig und beschreiben Zusammenhänge zwischen Materialtransport und Porenstruktur. Anwendbar sind diese Ergebnisse auf homogene, isotrope und selbstähnliche Erdstoffgefüge. Aussagen über konkrete Erdstoffe können über die Transformationsmethode erfolgen. Für die Verwendung der Transformationsmethode ist vorab die relevante Porenstruktur, d. h. die Porenengstellenverteilung, zu ermitteln.
Für die Ausführung des Oberbaus von Verkehrsflächen existiert in Abhängigkeit von projektspezifischen Voraussetzungen eine Vielzahl von verschiedenen Varianten. Aufgrund von Erfahrungen der Projektplaner werden bei ähnlichen Voraussetzungen häufig gleichartige Ausführungsvarianten gewählt. Um eine mögliche Lösungsvariante für den Straßenoberbau zu erhalten, sollten daher nicht nur die gesetzlichen Richtlinien sondern auch bereits beendete Projekte berücksichtigt werden. Im Rahmen eines Wissenschaftlichen Kollegs an der Bauhaus-Universität Weimar wurde die Anwendung des Case-Based Reasoning für die Auswahl von Ausführungsvarianten für den Straßenoberbau untersucht. In diesem Beitrag werden die grundlegenden Konzepte des Case-Based Reasoning und die Bestimmung von ähnlichen Varianten anhand einfacher Beispiele aus dem Straßenoberbau dargestellt.
Bei Analysen des Gebäudebestands im Quartierskontext werden zu Dokumentationszwecken viele Bilddaten erzeugt. Diese Daten sind im Nachhinein häufig keinen eindeutig genauen Standorten und Blickwinkeln auf das Bauwerk zuzuordnen. Insbesondere gilt dies für Ortsunkundige oder für Detailaufnahmen. Eine zusätzliche Herausforderung stellt die Aufnahme von Wärmebrücken- oder andersartigen Gebäudedetails durch Thermogramme dar. In der Praxis kommen hier oftmals analoge, fehleranfällige Lösungen zum Einsatz.
Durch die Nutzung von Georeferenzierung kann diese Lücke geschlossen und eine eindeutige Kommunikation und Auswertung gewährleistet werden. Im Gegensatz zu den üblichen Kameras sind Smartphones nach Stand der Technik ausreichend ausgestattet, um neben Daten zu Standort auch die Orientierungswinkel einer Bildaufnahme zu dokumentieren. Die georefenzierten Bilder können auf Grundlage der in den sogenannten Exif-Daten mitgeschriebenen Informationen händisch in ein bestehendes Quartiersmodell integriert werden.
Anhand eines universitären Musterquartiers wird die nutzerfreundliche Realisierung beispielhaft erprobt und auf ihre Potentiale zur Automatisierung in Python untersucht. Hierfür wurde ein bestehendes Quartiersmodell als geometrische Grundlage genutzt und um RGB-Bilder sowie Thermogramme erweitert. Das beschriebene Vorgehen wird im Rahmen der Anwendung auf seinen möglichen Einsatz im Rahmen einer energetischen Quartierserfassung sowie einer Bauschadensdokumentation untersucht.
Mit dem vorliegenden Beitrag wird dem Nutzenden ein Werkzeug bereitgestellt, das die hochwertige Dokumentation einer Bestandserfassung, auch im Quartierskontext, ermöglicht.
Die d - Dirac - Funktion d(x-xi) und Heviside - Funktion wurden vor allem zur Beschreibung diskontinuierlicher Belastungsfunktionen von gebogenen Balken angewendet. Im Referat werden die mathematischen Operationen auf den erwähnten Funktionen dargestellt. Darüber hinaus wird die Möglichkeit eindeutiger Aufschreibung von belibigen Belestungsfunktionen vorgeschlagen, die fast alle Fälle der in der Ingenieurpraxis auftretenden Belastungen umfassen. Die vorgeschlagenen Lösungen geben die Möglichkeit leichter Aufschreibung im Form eines Algorithmus, das die Ausnutzung von Komputertechnik in statischen Berechnungen ermöglicht. Am Ende des Referates werden die Zahlebeispiele dargestellt, die die Möglichkeiten praktischer Anwendungen der besprochenen Funktionen darstellen.
Die Einführung von neuen Informations- und Kommunikationstechniken in Klein- und Mittelständische Unternehmen (hier: kleine und mittlere Planungsbüros im Bauwesen) ist mit speziellen Problemen behaftet. Erfahrungswerte liegen nur in größeren und zumeist fachfremden Firmen vor. Neben den eigentlichen Sicherheitsrisiken (Thematik Internet), Verständnisschwierigkeiten und daraus resultierenden Akzeptanzproblemen fehlt beim Einsatz dieser neuen Techniken die Verbindung zum Ablauf in projektbasiert arbeitenden Unternehmen. Der Begeisterung und Euphorie durch den Einsatz neuer Technik stehen Änderungen des eigenen Arbeitsstiles und ein anfänglicher Mehraufwand entgegen. Ein Schwerpunktthema der eigenen Forschungsarbeiten sind die Ermittlung und Validierung von Kriterien für die Einführung neuer IuK-Techniken speziell in kleineren und mittleren Planungsbüros. In einer fortschreitenden Reihe von Arbeiten am Fachbereich wurden und werden nacheinander die genannten Problematiken und Aspekte in Angriff genommen. Dabei werden neben der Kategorisierung von Anwendungsszenarien und Vorstellung der einzelnen, empfehlenswerten Techniken einzelne Konzepte am Fachbereich und in Zusammenarbeit mit Ingenieurbüros überprüft. Der Beitrag möchte in Ergänzung zu bereits gelaufenen Arbeiten als Empfehlung oder Leitfaden für Planungsbüros auf die Machbarkeit neuer Techniken und einige nötige Randbedingungen eingehen.
Die meisten traditionellen Methoden der Systemidentifikation beruhen auf der Abbildung der Meßwerte entweder im Zeit- oder im Frequenzbereich. In jüngerer Zeit wurden im Zusammenhang mit der Systemidentifikation Verfahren entwicklet, die auf der Anwendung der Wavelet-Transformation beruhen. Das Ziel dieser Arbeit war, einen Algorithmus zu entwickeln, der die Identifikation von Parametern eines Finite-Elemente-Modells, das ein experimentell untersuchtes mechanisches System beschreibt, ermöglicht. Es wurde eine Methode erarbeitet, mit deren Hilfe die gesuchten Parameter durch Lösen eines Systems von Bewegungsgleichungen im Zeit-Skalen-Bereich ermittelt werden. Durch die Anwendung dieser Darstellung können Probleme, die durch Rauschanteile in den Meßdaten entstehen, reduziert werden. Die Ergebnisse numerischer Simulation und einer experimentellen Studie bestätigen die Vorteile einer Anwendung der Wavelet-Transformation in der vorgeschlagenen Weise. ...
Anwendungsmöglichkeiten der Werkzeuge der Lean Construction in der Ablaufplanung im Fassadenbau
(2011)
Trotz Mechanisierung und Vorfertigung ist die Bauproduktion stark handwerklich geprägt. Zu dem sind Baustellen in der Regel komplexe und einmalige Produktionsstätten für Einzelobjekte. Sie sind häufig witterungsabhängig, was die Planbarkeit des Herstellungsprozesses beeinträchtigt. Zu dem unterscheiden sich die jeweiligen örtlichen Bedingungen stark voneinander. Ständig wechselndes Personal und Nachunternehmer aus verschiedenen Ländern mit unter-schiedlichen Erfahrungen und Qualifikationen sowie andere Geräte, Herstellungsmethoden und Baustoffe stellen sehr komplexe Anforderungen an die Baubeteiligten. Außerdem gelten in Deutschland hohe Qualitätsanforderungen und komplizierte Vorschriften, die den Aufwand für die Bauleitung deutlich erhöhen. Die Bauindustrie hat sich aus der Kombination verschiedener Berufe entwickelt und leidet deshalb bis heute unter einer arbeitsteiligen Gliederung. Dies hat zur Folge, dass gegenwärtige Ressourcen nur mangelhaft ausgenutzt werden. Besonders bei den Schnittstellen zwischen den einzelnen Gewerken besteht enormes Potential, da die Abläufe und Übergänge zwischen den einzelnen Gewerken meist nicht richtig funktionieren. Hinzu kommen Lieferprobleme sowie zum Teil gegensätzliche Ziele der am Bau Beteiligten, welche die Arbeit erschweren und das Resultat beeinträchtigen. Dies hat zur Folge, dass die tatsächliche, produktive Arbeitsleistung im Verhältnis zur gesamten Arbeitszeit zu gering ausfällt. Seit Mitte der neunziger Jahre versuchen, vor allem amerikanische Bauingenieure und Ma-nagementfachleute, wissenschaftlich einzelne Gestaltungsprinzipien und Methoden der Lean Production (LP) aus der stationären Industrie auf das Bauwesen zu übertragen und bran-chenspezifisch weiterzuentwickeln. Dabei werden hauptsächlich Werkzeuge und Methoden des Toyota Produktionssystems (TPS) und der LP verwendet um eine Steigerung der Produktivität und Stabilisierung der Bauabläufe zu erreichen. Dieser Managementansatz zur Gestaltung der Baustellenproduktion wird als Lean Construction (LC) bezeichnet.
Visually impaired is a common problem for human life in the world wide. The projector-based AR technique has ability to change appearance of real object, and it can help to improve visibility for visually impaired. We propose a new framework for the appearance enhancement with the projector camera system that employed model predictive controller. This framework enables arbitrary image processing such as photo-retouch software in the real world and it helps to improve visibility for visually impaired. In this article, we show the appearance enhancement result of Peli's method and Wolffshon's method for the low vision, Jefferson's method for color vision deficiencies. Through experiment results, the potential of our method to enhance the appearance for visually impaired was confirmed as same as appearance enhancement for the digital image and television viewing.
Diese Dissertation beschäftigt sich mit Kunstwerken, die das alltägliche Ding in den Blick nehmen. Nährboden dieser Kunstform sind die soziokulturellen Entwicklungen des 20. Jahrhunderts, mit denen wesentliche Veränderungen hinsichtlich des Verhältnisses von Mensch und Ding einhergingen.
Daraus resultierte eine allgemeine künstlerische Zuwendung zu den Dingen und eine einzigartige Kulmination aus verschiedenartigen Auseinandersetzungen mit ihnen als kunstfähige Gegenstände, über die sich die neue Dingwelt erschlossen wurde und deren Kunstwerke einen Spiegel dieser Entwicklungen darstellen.
Die Dissertation stellt ebenfalls die Dinge selbst in den Fokus. Vier Aspekte von Dingen (Materialität, Funktionalität, Repräsentationalität und Relationalität) werden gesondert ins Auge gefasst und in den theoretischen Diskurs des 20. Jahrhunderts eingeordnet, um sie als Teil der gelebten Realität besser zu verstehen, von der sich der ästhetische Blick nicht trennen lässt. Anhand der künstlerischen Positionen von Robert Rauschenberg, Christo und Jeanne-Claude, Daniel Spoerri und Arman sowie Claes Oldenburg werden die verschiedenen Aspekte der Dinge näher betrachtet und analysiert, wie diese speziell in den Kunstwerken thematisiert werden und welche Relevanz sie für deren Rezeptionserfahrung haben.
Die Korrelation dieser beiden Ebenen - die Dinge als konstitutiver Bestandteil im sozialen Raum und die Dinge als Elemente in Kunstwerken -, die im Fokus der vorliegenden Untersuchung steht, ermöglicht es, die künstlerische Zuwendung zu den Dingen in den 1960er-Jahren neu einzuordnen. Darüber hinaus wird dadurch ein differenziertes Bild von der Kunst dieser Zeit sowie den Dingen in der Kunst im Allgemeinen gezeichnet.
This paper presents an agent-based software, Virtual Administrator System (VAS) for the smallscale maintenance of school buildings. VAS is capable of handling a heavy load of routine, lowtech maintenance jobs. It assigns a different priority to each job application according to its significance and urgency, and automatically adjusts schedules for maintenance engineers when on-site supervision is needed. The system can help ease off the burden of routine small-scale maintenance work, making it more cost-effective and efficient in the overall management of school building maintenance. VAS posts jobs on the Web in a multi-media format and classified all applications into four categories: the on-call maintenance contract, the term maintenance contract, the guaranty maintenance contract, and the regular maintenance contract. It then estimates their urgency level and passes the information to maintenance engineers who will decide whether on-site inspection is needed. Based on the engineers’ feedback, VAS automatically implements the scheduling for inspection as well as sends out real-time or batch notifications to contractors. All these activities are recorded in a database to allow continuous research and data mining and the analysis and diagnosis of specific jobs for followup maintenance plans.
This paper presents the combination of two different parallelization environments, OpenMP and MPI, in one numerical simulation tool. The computation of the system matrices and vectors is parallelized with OpenMP and the solution of the system of equations is done with the MPIbased solver MUMPS. The efficiency of both algorithms is shown on several linear and nonlinear examples using the Finite Element Method and a meshless discretization technique.
All construction project are constrained by their schedules, budgets and specifications, and safety and environmental regulations. These constraints made construction management more complex and difficult. At the same time, many historical data that can support the decisions in the future are kept in construction enterprises,. To use the historical data effectively and efficiently, it is essential to apply the data warehouse and data mining technologies. This paper introduces a research which aims to develop a data warehouse system according to the requirements of construction enterprises and use data mining technology to learn useful information and knowledge from the data warehouse system. The design, the development and the application of this system are detailedly introduced in this paper.
A fuzzy logic controller - WNC (Water Network Control) was developed for control of urban drainage systems. The objectives are to avoid accidents, flooding, pollutions through combined sewer overflows and excessive operation and maintenance costs. Fuzzy logic was proved to be a promising approach, flexible and easy accepted, because it includes the expert knowledge. Fuzzy control system proposed is robust and also easy to understand and modified. It offers to the operator the possibility to participate directly in the system control, combining the results of the modern optimization techniques with the experience and knowledge accumulated in time by experts. Thus, the control of urban sewer system can be well solved by implementing an intelligent control system, based on available information (fuzzy) and on expert's experience. An important feature of this fuzzy logic system is its capability to elaborate a control decision even in situations that were not considered in the design phase of the urban network.
The study presents a Machine Learning (ML)-based framework designed to forecast the stress-strain relationship of arc-direct energy deposited mild steel. Based on microstructural characteristics previously extracted using microscopy and X-ray diffraction, approximately 1000 new parameter sets are generated by applying the Latin Hypercube Sampling Method (LHSM). For each parameter set, a Representative Volume Element (RVE) is synthetically created via Voronoi Tessellation. Input raw data for ML-based algorithms comprises these parameter sets or RVE-images, while output raw data includes their corresponding stress-strain relationships calculated after a Finite Element (FE) procedure. Input data undergoes preprocessing involving standardization, feature selection, and image resizing. Similarly, the stress-strain curves, initially unsuitable for training traditional ML algorithms, are preprocessed using cubic splines and occasionally Principal Component Analysis (PCA). The later part of the study focuses on employing multiple ML algorithms, utilizing two main models. The first model predicts stress-strain curves based on microstructural parameters, while the second model does so solely from RVE images. The most accurate prediction yields a Root Mean Squared Error of around 5 MPa, approximately 1% of the yield stress. This outcome suggests that ML models offer precise and efficient methods for characterizing dual-phase steels, establishing a framework for accurate results in material analysis.
Geotechnical constructions are sophisticated structures due to the non-linear soil behaviour and the complex soil-structure interaction, which entails great exigencies on the liable engineer during the design process. The process can be schematised as a difficult and, depending on the opportunities and skills of the processor more or less innovative, creative and heuristic search for one or a multiple of defined objectives under given boundary conditions. Wholistic approaches including numerical optimisation which support the constructing engineer in this task do not currently exist. Abstract problem formulation is not state of the art; commonly parameter studies are bounded by computational effort. Thereby potential regarding cost effectiveness, construction time, load capacity and/or serviceability are often used insufficiently. This paper describes systematic approaches for comprehensive optimisation of selected geotechnical constructions like combined pile raft foundations and quay wall structures. Several optimisation paradigms like the mono- and the multi-objective optimisation are demonstrated and their use for a more efficient design concerning various intentions is shown in example. The optimisation is implemented by using Evolutionary Algorithms. The applicability to geotechnical real world problems including nonlinearities, discontinuities and multi-modalities is shown. The routines are adapted to common problems and coupled with conventional analysis procedures as well as with numerical calculation software based on the finite element method. Numerical optimisation of geotechnical design using efficient algorithms is able to deliver highly effective solutions after investing more effort into the parameterization of the problem. Obtained results can be used for realizing different constructions near the stability limit, visualizing the sensitivity regarding the construction parameters or simply procuring more effective solutions.
Creation of hierarchical sequence of the plastic and viscoplastic models according to different levels of structure approximations is considered. Developed strategy of multimodel analysis, which consists of creation of the inelastic models library, determination of selection criteria system and caring out of multivariant sequential clarifying computations, is described. Application of the multimodel approach in numerical computations has demonstrated possibility of reliable prediction of stress-strain response under wide variety of combined nonproportional loading.
The development of the qualitative methods of investigation of dynamic systems, suggested by the authors, is the effective means for identification of dynamic systems. The results of the extensive investigations of the behaviour of linear dynamic systems and symmetrical system with double well potential under polyharmonic excitation are given in the paper. Phase space of dynamic systems is multi-dimensional. Each point of this space is characterized by not less than four co-ordinates. In particular: displacement, velocity, acceleration and time. Real space has three dimensions. It is more convenient for the analysis. We consider the phase space as limited to three dimensions, namely displacement, velocity and acceleration. Another choice of parameters of phase planes is also possible [1, 2]. Phase trajectory on a plane is of the greatest interest. It is known that accelerations of points are more sensitive to deviations of oscillations from harmonic ones. It is connected with the fact that power criteria on it are interpreted most evidently. Besides, dependence is back symmetric relative to axis of the diagram of elastic characteristic. Only the phase trajectories allow establishing a type and a level of non-linearity of a system. The results of the extensive investigations of the dynamic systems behaviour under polyharmonic excitation are given in the paper. The use of the given phase trajectories enables us to determine with a high degree of reliability the following peculiarities: - presence or absence of non-linear character of behaviour of a dynamic system; - type of non-linearity; - type of dynamic process (oscillations of the basic tone, combinative oscillations, chaotic oscillations.). Unlike existing asymptotic and stochastic methods of identification of dynamic systems, the use of the suggested technique is not connected with the use of a significant amount of computing procedures, and also it has a number of advantages at the investigation of complicated oscillations.
The economic losses from earthquakes tend to hit the national economy considerably; therefore, models that are capable of estimating the vulnerability and losses of future earthquakes are highly consequential for emergency planners with the purpose of risk mitigation. This demands a mass prioritization filtering of structures to identify vulnerable buildings for retrofitting purposes. The application of advanced structural analysis on each building to study the earthquake response is impractical due to complex calculations, long computational time, and exorbitant cost. This exhibits the need for a fast, reliable, and rapid method, commonly known as Rapid Visual Screening (RVS). The method serves as a preliminary screening platform, using an optimum number of seismic parameters of the structure and predefined output damage states. In this study, the efficacy of the Machine Learning (ML) application in damage prediction through a Support Vector Machine (SVM) model as the damage classification technique has been investigated. The developed model was trained and examined based on damage data from the 1999 Düzce Earthquake in Turkey, where the building’s data consists of 22 performance modifiers that have been implemented with supervised machine learning.
In this paper a meshless component is presented, which internally uses the common meshless interpolation technique >Moving Least Squares<. In contrast to usual meshless integration schemes like the cell quadrature and the nodal integration in this study integration zones with triangular geometry spanned by three nodes are used for 2D analysis. The boundary of the structure is defined by boundary nodes, which are similar to finite element nodes. By using the neighborhood relations of the integration zones an efficient search algorithm to detected the nodes in the influence of the integration points was developed. The components are directly coupled with finite elements by using a penalty method. An widely accepted model to describe the fracture behavior of concrete is the >Fictitious Crack Model< which is applied in this study, which differentiates between micro cracks and macro cracks, with and without force transmission over the crack surface, respectively. In this study the crack surface is discretized by node pairs in form of a polygon, which is part of the boundary. To apply the >Fictitious Crack Model< finite interface elements are included between the crack surface nodes. The determination of the maximum principal strain at the crack tip is done by introducing an influence area around the singularity. On a practical example it is shown that the included elements improve the model by the transmission of the surface forces during monotonic loading and by the representation of the contact forces of closed cracks during reverse loading.
The paper is devoted to the investigation of dynamical behavior of a cable under influence of various types of excitations. Such element has a low rigidity and is sensitive to dynamic effect. The structural scheme is a cable which ends are located at different level. The analysis of dynamical behavior of the cable under effect of kinematical excitation which is represented by the oscillations of the upper part of tower is given. The scheme of cable is accepted such, that lower end of an inclined cable is motionless. The motion of the upper end is assumed only in horizontal direction. The fourth-order Runge-Kutta method was realized in software. The fast Fourier transform was used for spectral analysis. Standard graphical software was adopted for presenting results of investigations. The mathematical model of oscillations of a cable was developed by the account of the viscous damping. The analysis of dynamical characteristics of a cable for various parameters of damping and kinematical excitation was carried out. The time series, spectral characteristics and amplitude-frequencies characteristics was obtained. The resonance amplitude for different oscillating regimes was estimated. It is noted that increasing of the coefficient of the viscous damping and decreasing of the amplitude of tower's oscillations reduces the value of the critical frequency and the resonant amplitudes.
In this paper we revisit the so-called Bergman kernel method (BKM) for solving conformal mapping problems. This method is based on the reproducing property of the Bergman kernel function. The main drawback of this well known technique is that it involves an orthonormalization process and thus is numerically unstable. This difficulty can be, in some cases, overcome by using the Maple system, which makes no use of numeric quadrature. We illustrate this implementation by presenting a numerical example. The construction of reproducing kernel functions is not restricted to real dimension 2. Results concerning the construction of Bergman kernel functions in closed form for special domains in the framework of hypercomplex function theory suggest that BKM can also be extended to mapping problems in higher dimensions, particularly 3-dimensional cases. We describe such a generalized BKM-approach and present numerical examples obtained by the use of specially developed software packages for quaternions.
The quaternionic operator calculus can be applied very elegantly to solve many important boundary value problems arising in fluid dynamics and electrodynamics in an analytic way. In order to set up fully explicit solutions. In order to apply the quaternionic operator calculus to solve these types of boundary value problems fully explicitly, one has to evaluate two types of integral operators: the Teodorescu operator and the quaternionic Bergman projector. While the integral kernel of the Teodorescu transform is universal for all domains, the kernel function of the Bergman projector, called the Bergman kernel, depends on the geometry of the domain. Recently the theory of quaternionic holomorphic multiperiodic functions and automorphic forms provided new impulses to set up explicit representation formulas for large classes of hyperbolic polyhedron type domains. These include block shaped domains, wedge shaped domains (with or without additional rectangular restrictions) and circular symmetric finite and infinite cylinders as particular subcases. In this talk we want to give an overview over the recent developments in this direction.
The reduction of oscillation amplitudes of structural elements is necessary not only for maintenance of their durability and longevity but also for elimination of a harmful effect of oscillations on people and technology operations. The dampers are widely applied for this purpose. One of the most widespread models of structural friction forces having piecewise linear relation to displacement was analysed. T The author suggests the application of phase trajectories mapping in plane "acceleration – displacement". Unlike the trajectories mapping in a plane "velocity – displacement", they don't require large number of geometrical constructions for identification of the characteristics of dynamic systems. It promotes improving the accuracy. The analytical assumptions had been verified by numerical modeling. The results show good enough coincide between numerical and analytical estimation of dissipative characteristic.
We propose a new approach to the numerical solution of quasi-static elastic-plastic problems based on the Moreau-Yosida theorem. After the time discretization, the problem is expressed as an energy minimization problem for unknown displacement and plastic strain fields. The dependency of the minimization functional on the displacement is smooth whereas the dependency on the plastic strain is non-smooth. Besides, there exists an explicit formula, how to calculate the plastic strain from a given displacement field. This allows us to reformulate the original problem as a minimization problem in the displacement only. Using the Moreau-Yosida theorem from the convex analysis, the minimization functional in the displacements turns out to be Frechet-differentiable, although the hidden dependency on the plastic strain is non-differentiable. The seconds derivative exists everywhere apart from the elastic-plastic interface dividing elastic and plastic zones of the continuum. This motivates to implement a Newton-like method, which converges super-linearly as can be observed in our numerical experiments.
Grundidee der Arbeit ist es, Lösungen von Randwertaufgaben durch Linearkombinationen exakter klassischer Lösungen der Differentialgleichung zu approximieren. Die freien Koeffizienten werden dabei durch die Bestimmung der besten Approximation der Randwerte berechnet. Als Basis der Approximation werden vollständige orthogonale und nahezu orthogonale Funktionensysteme verwendet. Anhand ausgewählter Beispiele mit Randvorgaben unterschiedlicher Glattheit wird am Beispiel der Kugel die prinzipielle Anwendbarkeit der Methode getestet und hinsichtlich der Entwicklung des Fehlers der Näherungslösung, der Stabilität des Verfahrens und des numerischen Aufwandes untersucht. Die erhaltenen Resultate geben einen begründeten Anlass, die Anwendung der Methode als Bestandteil einer hybriden analytisch-numerischen Methode, insbesondere der Verknüpfung mit der FEM, weiterzuverfolgen.
Die vorliegende Arbeit beschäftigt sich mit der Berechnung der Sicherheit von Strukturen mit sowohl geometrisch als auch physikalisch nichtlinearem Verhalten. Die Berechnung der Versagenswahrscheinlichkeit einer Struktur mit Hilfe von Monte-Carlo-Simulationsmethoden erfordert, dass die Funktion der Strukturantwort implizit berechnet wird, zum Beispiel durch nichtlineare Strukturanalysen für jede Realisation der Zufallsvariablen. Die Strukturanalysen bilden jedoch den Hauptanteil am Berechnungsaufwand der Zuverlässigkeitsanalyse, so dass die Analyse von realistischen Strukturen mit nichtlinearem Verhalten durch die begrenzten Computer-Ressourcen stark eingeschränkt ist. Die klassischen Antwortflächenverfahren approximieren die Funktion der Strukturantwort oder aber die Grenzzustandsfunktion durch Polynome niedriger Ordnung. Dadurch ist für die Auswertung des Versagens-Kriteriums nur noch von Interesse, ob eine Realisation der Basisvariablen innerhalb oder außerhalb des von der Antwortflächenfunktion gebildeten Raumes liegt - die Strukturanalyse kann dann entfallen. Bei stark nichtlinearen Grenzzustandsfunktionen versagt die polynomiale Approximation. Das directional sampling neigt bei Problemen mit vielen Zufallsvariablen zu einem systematischen Fehler. Das adaptive importance directional sampling dagegen beseitigt diesen Fehler, verschenkt jedoch Informationen über den Verlauf der Grenzzustandsfunktion, da die aufgefundenen Stützstellen aus den vorangegangenen Simulationsläufen nicht berücksichtigt werden können. Aus diesem Grund erscheint eine Kombination beider Simulationsverfahren und eine Interpolation mittels einer Antwortfläche geeignet, diese Probleme zu lösen. Dies war die Motivation für die Entwicklung eines Verfahren der adaptiven Simulation der Einheitsvektoren und anschließender Interpolation der Grenzzustandsfunktion durch eine Antwortflächenfunktion. Dieses Vorgehen stellt besondere Anforderungen an die Antwortflächenfunktion. Diese muss flexibel genug sein, um stark nichtlineare Grenzzustandsfunktionen beliebig genau annähern zu können. Außerdem sollte die Anzahl der verarbeitbaren Stützstellen nicht begrenzt sein. Auch ist zu berücksichtigen, dass die Ermittlung der Stützstellen auf der Grenzzustandsfunktion nicht regelmäßig erfolgt. Die in dieser Arbeit entwickelten Methoden der lokalen Interpolation der Grenzzustandsfunktion durch Normalen-Hyperebenen bzw. sekantialen Hyperebenen und der sowohl lokalen als auch globalen Interpolation durch gewichtete Radien erfüllen diese Anforderungen. ungen. dieser Arbeit entwickelten Methoden der lokalen Interpolation der Grenzzustandsfunktion durch Normalen-Hyperebenen bzw. sekantialen Hyperebenen und der sowohl lokalen als auch globalen Interpolation durch gewichtete Radien erfüllen diese Anforderungen.
Die im Vortrag erläuterten Untersuchung dienten der Erfassung von Bestimmungsgrößen und relevanten Aspekten von sicherheits- und gesundheitsgerechtem Verhalten. Es sollen individuelle verhaltenssteuernde Größen und Steuerungsformen der Organisation beim Umgang mit Sicherheits- und Gesundheitsrisiken erhoben werden. Dargestellt werden Methodik, Fragebogen und erste Ergebnisse der Untersuchung.
Situation und Entwicklungstendenzen; Arbeitsprozesse im Arbeitsschutz; Das Internet; Arbeitsschutz im Internet (Internet-Inhalte auf dem Weg zum papierlosen Büro); Datenaustausch und papierloses Büro. Dank Telekommunikation und Internet sind wir auf dem besten Weg zum papierlosen Büro. Papier gebundenen Informationen werden jetzt schon durch Online-Dienste und digitale Dokumenten-Management-Systeme zurückgedrängt. Dank Vernetzung wachsen die Möglichkeiten simultanen Arbeitens. Auf dem Gebiet des Arbeitsschutzes bestehen aktuell bereits gute Arbeitsmöglichkeiten.
Arbeitsschutzkonzept für den Bau einröhriger Tunnel am Beispiel der ICE-Querung des Thüringer Waldes
(2003)
Erfahrungen bei der Umsetzung der Baustellenverordnung beim Bau der ICE-Neubaustrecke in Thüringen, im Vergleich zu Projekten des Autobahnneubaus. Die entscheidende Schwierigkeit liegt in der Einröhrigkeit der Tunnel. Von entscheidender Voraussetzung für die erfolgreiche Arbeit ist eine von gegenseitiger Achtung gekennzeichnete Zusammenarbeit in der Planung zwischen Bauherrn, Planer und dem Amt für Arbeitsschutz. Wegetransportplan: Im Unterschied zum Autobahnbau gehören die Baustraßen nicht zum jeweiligen Los. Alle Zuwegungen werden gesondert betrachtet. Fluchtwege.
Wissenschaftliches Kolloquium vom 14. bis 16. Oktober 1999 in Weimar an der Bauhaus-Universität zum Thema: ‚global village - Perspektiven der Architektur'
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Architecture and Air
(2003)
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Architecture and association
(2003)
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
ARCHITECTURE AND ATMOSPHERE
(2011)
Nathalie Bredella is an architect. She was educated at the TU Berlin and Cooper Union, New York. She received a PhD in Architectural Theory. She taught architectural design at the TU Berlin. She ist the author of Architekturen des Zuschauens. Imaginäre und reale Räume im Film (transcript-verlag). The work is based on an interdisciplinary approach incorporating architecture, film theory and philosophy. Her interests in architectural practice focus on the relationship between spatial strategies, film and media on an urban and architectural scale.
Architecture and globality
(2000)
Wissenschaftliches Kolloquium vom 14. bis 16. Oktober 1999 in Weimar an der Bauhaus-Universität zum Thema: ‚global village - Perspektiven der Architektur'
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Tatjana Schneider is lecturer at the School of Architecture, University of Sheffield. She holds a PhD in architecture. She worked in architectural practice in Germany and the UK, and has taught, lectured and published widely (including ‘Flexible Housing’ with Jeremy Till). She was a member of the worker’s cooperative G.L.A.S. (Glasgow Letters on Architecture and Space), which undertook agit-prop works, educational workshops, community based design consultancy and produced the quarterly journal glaspaper. Her work focuses on the production and political economy of the built environment. Current work includes the research ‘Spatial Agency’.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1996 in Weimar an der Bauhaus-Universität zum Thema: ‚Techno-Fiction. Zur Kritik der technologischen Utopien'
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
GRAFT is an architectural firm located in Los Angeles, Berlin, and Beijing. Their collective professional experience encompasses a wide array of building types including Fine Arts, Educational, Institutional, Commercial and Residential facilities. The firm has won numerous awards in Europe as well as in the United States. GRAFT was established in 1998 in Los Angeles by Lars Krückeberg, Wolfram Putz and Thomas Willemeit and opened an office in Berlin in 2001. In 2003 GRAFT opened an office in Beijing with Gregor Hoheisel as partner for the asian market. In 2007 Alejandra Lillo became Partner for the office in Los Angeles. GRAFT was conceived as a ‘Label’ for Architecture, Urban Planning, Design, Music, and the “pursuit of happiness”. Since the firm was established, it has been commissioned to design and manage a wide range of projects in multiple disciplines and locations. With the core of the firm’s enterprises gravitating around the field of architecture and the built environment, GRAFT has always maintained an interest in crossing the boundaries between disciplines and “grafting” the creative potentials and methodologies of different realities. This is reflected in the firm’s expansion into the fields of exhibition design and product design, art installations, academic projects and “events” as well as in the variety of project locations in Germany, China, UAE, Russia, Georgia, in the U.S. and Mexico, to name a few.
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1996 in Weimar an der Bauhaus-Universität zum Thema: ‚Techno-Fiction. Zur Kritik der technologischen Utopien'
Lara Schrijver is an assistant professor at the Faculty of Architecture of the TU Delft. She is one of three program leaders for a new research program in the department of architecture, ‘The Architectural Project and its Foundations’. Schrijver holds degrees in architecture from Princeton University and the TU Delft. She received her Ph.D. from the TU Eindhoven in 2005. Schrijver has taught design and theory courses, and contributed to conferences in the Netherlands as well as abroad. She was an editor for OASE, journal for architecture, for ten years, and was co-organizer of the 2006 conference ‘The Projective Landscape’. Her current work revolves around the role of architecture in the city, and its responsibility in defining the public domain. Her first book, Radical Games, on the influence of the 1960s on contemporary discourse, is forthcoming in the spring of 2009.
Im Gegensatz zu Industrieländern wird das barrierefreie und behindertengerechte Planen und Bauen von öffentlichen Gebäuden in Entwicklungsländern aus wirtschaftlichen und sozialen Gründen nur ungenügend berücksichtigt und realisiert. Die Analyse von international vorhandenen Normen und Richtlinien zeigte, dass in Vietnam die Integration behindertengerechter Konzepte in Bauplanungen erst seit dem Jahr 2002 stattfindet, wohingegen diese in China bereits seit den 80er Jahren und in den Industrienationen wie Deutschland und Amerika sogar schon seit drei Jahrzehnten Anwendung findet. Die ungenügende Berücksichtigung behindertengerechter Baukonzepte in öffentlichen Einrichtungen, so auch vor allem in Berufsschulen bewirkt eine drastische Reduzierung des Ausbildungsplatzangebotes und eine resultierende Perspektivlosigkeit für behinderte Menschen. Durch die schnelle Errichtung barrierefreier, behindertengerechter Ausbildungseinrichtungen sollen sich die Chancen auf einen Ausbildungsplatz für behinderte Vietnamesen deutlich verbessern. Mit dem Erhalt eines Ausbildungsplatzes wird diesen Menschen nicht nur eine Integration in die Gesellschaft sondern langfristig gesehen auch finanzielle Selbständigkeit und somit Unabhängigkeit von der Familie ermöglicht. Als Grundlage des angestrebten Umwandlungsprozesses von der herkömmlichen barrierebelasteten Bauplanung zur Berücksichtigung von behinderten Menschen durch behindertengerechte Planungskonzepte wurden Bauzeit, Bauumfang und Baukosten eingehend analysiert. Dieser vergleichenden Betrachtung der Bauplanungen entwuchsen zwei neue barrierefreie Berufschultypen. Der neue Berufsschultyp 1 – Der Dezentralisierungstyp zeichnet sich durch einen geringfügigen Bauumfang und durch seine einfache Baukonstruktion aus und ermöglicht somit eine schnelle Reaktion auf den gravierenden Ausbildungsplatzmangel für behinderte Menschen. Dieser kostengünstige Berufsschultyp wurde entwickelt, um sehr kurzfristig eine schnelle Erhöhung des Ausbildungsplatzangebotes für behinderte Menschen zu schaffen. Siedlungs- und Wohngebiete bzw. Dörfer eignen sich am besten als Standort für den Berufsschultyp 1. Das ursprüngliche Wohnumfeld bliebe den behinderten Schülern erhalten und damit einhergehend auch die seelische Unterstützung durch deren Familien. Der familiennahe Standort der Berufsschule würde somit sowohl den Lehrern als auch den Schülern eine große seelische Last abnehmen. Des Weiteren ließe sich eine Berufsschule vom Typ 1 schnellstens errichten, so dass die Ausbildung der behinderten und nicht behinderten Schüler sofort aufgenommen werden könnte. Im Zuge der Entwicklung des neuen Berufsschultyps 2 – Dem Zentralisierungstyp - wurden internationale Standards angestrebt. Dieser Berufsschultyp bietet eine umfangreichere Flexibilität in seiner Nutzungsart, ein umfassenderes Angebot an Ausbildungsgängen und ein weitaus größeres Feld der Integration. Der Berufsschultyp 2 ist ein komplexer Bau, mit einem größeren Bauumfang als Berufsschultyp 1. Bei der Errichtung dieser Berufsschultypen ist mit einer langfristigen Planungs- und Bauzeit zu rechnen. Der Stadtrand wird als der optimale Standort zur Errichtung der Berufsschule vom Typ 2 angesehen. Von dort aus ließen sich die öffentlichen Service der Stadt effizient nutzen. Als Bewertungsgrundlage für eine optimale Entwicklung der beiden neuen Berufsschultypen dienen Basisdaten aus umfassenden Analysen über verschiedenste Betrachtungsebenen. Unter Nutzung der in Deutschland und USA bestehenden gesetzlichen Grundlagen sollen barrierefreie Planungsempfehlungen, gezielt für die Errichtung behindertengerechter berufsausbildender Schulen in Vietnam, abgleitet werden, um ein gemeinsames Lernen von seh- und mobilitätsbehinderten sowie von nicht behinderten Menschen zu ermöglichen. Bei den Planungsempfehlungen finden nicht nur die unterschiedlichen menschlichen Körpergrößen der verschiedenen Bevölkerungsgruppen sondern auch die unterschiedliche Lebensweise der Vietnamesen sowie die Klimabedingungen in Vietnam Berücksichtigung. Bei der Planung von behindertengerechten Ausbildungs- und Schuleinrichtungen ist es wichtig, die Körpergröße der Menschen des jeweiligen Landes zu berücksichtigen. Als Orientierungsmaß für die Körpergröße vietnamesischer Menschen wurde ein Richtfaktor definiert und eingesetzt. Anhand der o.g. Richtfaktorgrößen wurden detaillierte Planungsempfehlungen für barrierefreies Lernen und Wohnen herausgearbeitet.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Komplexität ist ein genuin architektonisches Problem. Der Begriff von Architektur als einer universellen Praxis bzw. ganzheitlichen Erkenntnisweise enthält bereits im Kern den Begriff 'Komplexität'. Beide Konzepte fallen weithin zusammen – Architektur kann damit als spezifische Denkform des Komplexen betrachtet werden. Das in der Arbeit aufgezeigte Dilemma besteht darin, dass der modernen Architektur ihr ursprünglicher Gestaltungsgegenstand – Komplexität – abhanden gekommen ist: 'Nönnig dekonstruiert zu Recht die hoch aggregierten Begriffe des Raumes und des Entwurfs. Die gesamte Arbeit zeigt, dass die modernen Beschreibungsformen von Komplexität gerade nicht in der Architektur entwickelt sind.' (Prof. Gerd Zimmermann, Weimar). Um dieses Defizit zu beheben und Architektur als eigenständige Wissenstechnik ('Technoepisteme') zu etablieren, wird ausgehend von spezifischen 'Praxis- und Diskursdefiziten' ein Theorieszenario entwickelt, mit dem und in dem Architektur sich als komplexe Wissensform verwirklicht (u.a. Komplexe Systeme, Design Sciences, Operationale Heuristik). 'Vorliegende Arbeit ist der Versuch […] die Architektur gewissermaßen wieder in den Stand zu setzen, der ihr im System des Denkens eigentlich zukommt […] Der Komplexitätsdiskurs in der Architektur ist zurück.' (Prof. Gerd Zimmermann, Weimar)
Architekturen der Macht
(1992)