Refine
Document Type
- Doctoral Thesis (20)
- Article (16)
- Preprint (6)
- Conference Proceeding (4)
- Bachelor Thesis (2)
- Master's Thesis (2)
- Other (2)
- Periodical (2)
- Book (1)
- Habilitation (1)
Institute
- Institut für Strukturmechanik (ISM) (7)
- Professur Modellierung und Simulation - Konstruktion (5)
- Institut für Europäische Urbanistik (4)
- Professur Bauphysik (4)
- F. A. Finger-Institut für Baustoffkunde (FIB) (3)
- Professur Informatik im Bauwesen (3)
- Professur Sozialwissenschaftliche Stadtforschung (3)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (3)
- Universitätsbibliothek (3)
- An-Institute (2)
Keywords
- OA-Publikationsfonds2018 (9)
- Simulation (4)
- BIM (3)
- machine learning (3)
- Aerodynamik (2)
- Beton (2)
- Biodiesel (2)
- Bridge (2)
- Buffeting (2)
- Building Information Modeling (2)
Year of publication
- 2018 (58) (remove)
A Hybrid Clustering and Classification Technique for Forecasting Short-Term Energy Consumption
(2018)
Electrical energy distributor companies in Iran have to announce their energy demand at least three 3-day ahead of the market opening. Therefore, an accurate load estimation is highly crucial. This research invoked methodology based on CRISP data mining and used SVM, ANN, and CBA-ANN-SVM (a novel hybrid model of clustering with both widely used ANN and SVM) to predict short-term electrical energy demand of Bandarabbas. In previous studies, researchers introduced few effective parameters with no reasonable error about Bandarabbas power consumption. In this research we tried to recognize all efficient parameters and with the use of CBA-ANN-SVM model, the rate of error has been minimized. After consulting with experts in the field of power consumption and plotting daily power consumption for each week, this research showed that official holidays and weekends have impact on the power consumption. When the weather gets warmer, the consumption of electrical energy increases due to turning on electrical air conditioner. Also, con-sumption patterns in warm and cold months are different. Analyzing power consumption of the same month for different years had shown high similarity in power consumption patterns. Factors with high impact on power consumption were identified and statistical methods were utilized to prove their impacts. Using SVM, ANN and CBA-ANN-SVM, the model was built. Sine the proposed method (CBA-ANN-SVM) has low MAPE 5 1.474 (4 clusters) and MAPE 5 1.297 (3 clusters) in comparison with SVM (MAPE 5 2.015) and ANN (MAPE 5 1.790), this model was selected as the final model. The final model has the benefits from both models and the benefits of clustering. Clustering algorithm with discovering data structure, divides data into several clusters based on similarities and differences between them. Because data inside each cluster are more similar than entire data, modeling in each cluster will present better results. For future research, we suggest using fuzzy methods and genetic algorithm or a hybrid of both to forecast each cluster. It is also possible to use fuzzy methods or genetic algorithms or a hybrid of both without using clustering. It is issued that such models will produce better and more accurate results.
This paper presents a hybrid approach to predict the electric energy usage of weather-sensitive loads. The presented methodutilizes the clustering paradigm along with ANN and SVMapproaches for accurate short-term prediction of electric energyusage, using weather data. Since the methodology beinginvoked in this research is based on CRISP data mining, datapreparation has received a gr eat deal of attention in thisresear ch. Once data pre-processing was done, the underlyingpattern of electric energy consumption was extracted by themeans of machine learning methods to precisely forecast short-term energy consumption. The proposed approach (CBA-ANN-SVM) was applied to real load data and resulting higher accu-racy comparing to the existing models.
2018 American Institute of Chemical Engineers Environ Prog, 2018
https://doi.org/10.1002/ep.12934
Biodiesel, as the main alternative fuel to diesel fuel which is produced from renewable and available resources, improves the engine emissions during combustion in diesel engines. In this study, the biodiesel is produced initially from waste cooking oil (WCO). The fuel samples are applied in a diesel engine and the engine performance has been considered from the viewpoint of exergy and energy approaches. Engine tests are performed at a constant 1500 rpm speed with various loads and fuel samples. The obtained experimental data are also applied to develop an artificial neural network (ANN) model. Response surface methodology (RSM) is employed to optimize the exergy and energy efficiencies. Based on the results of the energy analysis, optimal engine performance is obtained at 80% of full load in presence of B10 and B20 fuels. However, based on the exergy analysis results, optimal engine performance is obtained at 80% of full load in presence of B90 and B100 fuels. The optimum values of exergy and energy efficiencies are in the range of 25–30% of full load, which is the same as the calculated range obtained from mathematical modeling.
We proposed two different time-dependent modeling approaches for variation of device characteristics of perovskite solar cells under stress conditions. The first approach follows Sah-Noyce-Shockley (SNS) model based on Shockley–Read–Hall recombination/generation across the depletion width of pn junction and the second approach is based on thermionic emission model for Schottky diodes. The connecting point of these approaches to time variation is the time-dependent defect generation in depletion width (W) of the junction. We have fitted the two models with experimental data reported in the literature to perovskite solar cell and found out that each model has a superior explanation for degradation of device metrics e.g. current density and efficiency by time under stress conditions. Nevertheless, the Sah-Noyce-Shockley model is more reliable than thermionic emission at least for solar cells.
Following restructuring of power industry, electricity supply to end-use customers has undergone fundamental changes. In the restructured power system, some of the responsibilities of the vertically integrated distribution companies have been assigned to network managers and retailers. Under the new situation, retailers are in charge of providing electrical energy to electricity consumers who have already signed contract with them. Retailers usually provide the required energy at a variable price, from wholesale electricity markets, forward contracts with energy producers, or distributed energy generators, and sell it at a fixed retail price to its clients. Different strategies are implemented by retailers to reduce the potential financial losses and risks associated with the uncertain nature of wholesale spot electricity market prices and electrical load of the consumers. In this paper, the strategic behavior of retailers in implementing forward contracts, distributed energy sources, and demand-response programs with the aim of increasing their profit and reducing their risk, while keeping their retail prices as low as possible, is investigated. For this purpose, risk management problem of the retailer companies collaborating with wholesale electricity markets, is modeled through bi-level programming approach and a comprehensive framework for retail electricity pricing, considering customers’ constraints, is provided in this paper. In the first level of the proposed bi-level optimization problem, the retailer maximizes its expected profit for a given risk level of profit variability, while in the second level, the customers minimize their consumption costs. The proposed programming problem is modeled as Mixed Integer programming (MIP) problem and can be efficiently solved using available commercial solvers. The simulation results on a test case approve the effectiveness of the proposed demand-response program based on dynamic pricing approach on reducing the retailer’s risk and increasing its profit.
In this paper, the decision-making problem of the retailers under dynamic pricing approach for demand response integration have been investigated. The retailer was supposed to rely on forward contracts, DGs, and spot electricity market to supply the required active and reactive power of its customers. To verify the effectiveness of the proposed model, four schemes for retailer’s scheduling problem are considered and the resulted profit under each scheme are analyzed and compared. The simulation results on a test case indicate that providing more options for the retailer to buy the required power of its customers and increase its flexibility in buying energy from spot electricity market reduces the retailers’ risk and increases its profit. From the customers’ perspective also the retailers’accesstodifferentpowersupplysourcesmayleadtoareductionintheretailelectricityprices. Since the retailer would be able to decrease its electricity selling price to the customers without losing its profitability, with the aim of attracting more customers. Inthiswork,theconditionalvalueatrisk(CVaR)measureisusedforconsideringandquantifying riskinthedecision-makingproblems. Amongallthepossibleoptioninfrontoftheretailertooptimize its profit and risk, demand response programs are the most beneficial option for both retailer and its customers. The simulation results on the case study prove that implementing dynamic pricing approach on retail electricity prices to integrate demand response programs can successfully provoke customers to shift their flexible demand from peak-load hours to mid-load and low-load hours. Comparing the simulation results of the third and fourth schemes evidences the impact of DRPs and customers’ load shifting on the reduction of retailer’s risk, as well as the reduction of retailer’s payment to contract holders, DG owners, and spot electricity market. Furthermore, the numerical results imply on the potential of reducing average retail prices up to 8%, under demand response activation. Consequently, it provides a win–win solution for both retailer and its customers.
Keine Ahnung? Landschaft!
(2018)
... soll auf den folgenden Seiten eine dritte Richtung angedeutet und vorgezeichnet werden, die ebenso Interesse am Erkenntnisgewinn durch das Thema Landschaft bekundet, dies hingegen aus der Umkehrung heraus erreichen will. Dreht man den Richtungspfeil, stehen wir ihr, der Landschaft, gegenüber. Vom Modus des Aktiven geraten wir in die Passivität. Damit wird eine Korrektur der Fragestellung möglich. Es entsteht eine Perspektive, die die Überlegungen zulässt: Was die Landschaft eigentlich mit uns macht?, welchen Horizont sie uns eröffnet und entstehen lässt, welche Bedeutung und welche Qualität wir dem ›Landschaftlichen‹ zuschreiben können, worin die Notwendigkeit ihres Erhalts und der Nutzen für die gegenwärtige Gesellschaft bestehen kann.
Die Thesis untersucht am Beispiel von Farb-Licht Forschungen (Interaktion dynamischen Lichts mit farbigen Oberflächen) und der Designforschungen am Potenzial der organisch Licht emittierenden Dioden (OLED) integrierende Aspekte des Designs im Kontext dieser Technologien. Des weiteren reflektiert die Thesis am Beispiel dieser Designforschungen das Verhältnis von Designforschung und Innovation für die gestalterischen Disziplinen.
Entwicklung und Untersuchung von alternativen Dicalciumsilicat-Bindern auf der Basis von alpha-C2SH
(2018)
Um den Klimawandel zu begrenzen, müssen die CO2-Emissionen drastisch gesenkt werden [100]. Bis 2050 soll bei der Herstellung von Zement eine Einsparung um 51–60 % auf 0,425–0,350 tCO2/tZement erfolgen [7]. Um dieses Ziel zu erreichen, sind alternative Bindemittelkonzepte notwendig [70].
Diese Arbeit widmet sich alternativen, hochreaktiven Dicalciumsilicat-Bindemitteln, die durch die thermische Aktivierung von α-Dicalcium-Silicat-Hydrat (α-C2SH) erzeugt werden. Das α-C2SH ist eine kristalline C S H-Phase, die im hydrothermalen Prozess, beispielsweise aus Branntkalk und Quarz, herstellbar ist. Die thermische Aktivierung kann bei sehr niedrigen Temperaturen erfolgen (>420 °C) und führt zu einem Multiphasen-C2S-Binder. Als besonders reaktive Bestandteile können x-C2S und röntgenamorphe Anteile enthalten sein. Weiterhin können β C2S, γ C2S und Dellait (Ca6(SiO4)(Si2O7)(OH)2) entstehen.
Im Rahmen der Arbeit wird zunächst der Stand des Wissens zur Polymorphie und Hydratation von C2S zusammengefasst. Es werden bekannte C2S-basierte Bindemittelkonzepte vorgestellt und bewertet.
Die Herstellung von C2S-Bindern wird experimentell im Labormaßstab untersucht. Dabei kommen unterschiedliche Autoklaven und ein Muffelofen zum Einsatz. Die Herstellungsparameter werden hinsichtlich Phasenbestand und Reaktivität optimiert. Die Bindemittel werden durch quantitative Röntgen-Phasenanalyse (QXRD), Rasterelektronenmikroskopie (REM), N2-Adsorption (BET-Methode), Heliumpycnometer, Thermoanalyse (TGA/DSC) und 29Si-MAS- sowie 29Si-1H-CP/MAS-NMR-Spektroskopie charakterisiert. Das Hydratationsverhalten der Bindemittel wird vorrangig mithilfe von Wärmeflusskalorimetrie untersucht. Weiterhin werden in situ und ex situ XRD-, TGA/DSC- und REM-Untersuchungen durchgeführt. Anhand von zwei Bindemitteln wird die Fähigkeit zur Erzielung hoher Festigkeiten demonstriert. Abschließend erfolgt eine Abschätzung zu Energiebedarf und CO2-Emissionen für die Herstellung der untersuchten C2S-Binder.
Die Ergebnisse zeigen, dass für eine hohe Reaktivität der Binder eine niedrige Brenntemperatur und ein geringer Wasserdampfpartialdruck während der thermischen Aktivierung entscheidend sind. Weiterhin muss das hydrothermal hergestellte α-C2SH eine möglichst hohe spezifische Oberfläche aufweisen. Diese Parameter beeinflussen den Phasenbestand und die phasenspezifische Reaktivität. Brenntemperaturen von ca. 420–500 °C führen zu hochreaktiven Bindern, die im Rahmen dieser Arbeit als Niedertemperatur-C2S-Binder bezeichnet werden. Temperaturen von ca. 600–800 °C führen zu Bindern mit geringerer Reaktivität, die im Rahmen dieser Arbeit als Hochtemperatur-C2S bezeichnet werden. Höhere Brenntemperaturen (1000 °C) führen zu Bindemitteln, die innerhalb der ersten drei Tage keine hydraulische Aktivität zeigen.
Die untersuchten Bindemittel können sehr hohe Reaktionsgeschwindigkeiten erreichen. Die Wärmeflusskalorimetrie deutet bei einigen Bindemitteln einen nahezu vollständigen Umsatz innerhalb von drei Tagen an. Durch XRD wurde für einen Binder der vollständige Verbrauch von x-C2S innerhalb von drei Tagen nachgewiesen. Für einen mittels in-situ-XRD und Wärmeflusskalorimetrie untersuchten Binder wurde gezeigt, dass die Phasen vorrangig in der Reihenfolge röntgenamorph > x-C2S > β-C2S > γ-C2S hydratisieren. Hydratationsprodukte sind nadelige C S H-Phasen und Portlandit.
Die Herstellung durch thermische Aktivierung von α-C2SH führt zu tafeligen Bindemittelpartikeln, die teilweise Zwickelräume und Poren zwischen den einzelnen Partikeln einschließen. Um eine verarbeitbare Bindemittelpaste zu erzeugen, sind daher sehr hohe Wasser/Bindemittel-Werte (z. B. 1,4) erforderlich. Der Wasseranspruch kann durch Mahlung etwa auf das Niveau von Zement gesenkt werden.
Die Druckfestigkeitsentwicklung wurde an zwei Niedertemperatur-C2S-Kompositbindern mit 40 % Kalksteinmehl bzw. 40 % Hüttensand untersucht. Aufgrund von theoretischen Betrachtungen zur Porosität in Abhängigkeit des w/b-Wertes wurde dieser auf 0,3 festgelegt. Durch Zugabe von PCE-Fließmittel wurde ein verarbeitbarer Mörtel erhalten. Die Festigkeitsentwicklung ist sehr schnell. Der Kalksteinmehl-Binder erreichte nach zwei Tagen 46 N/mm². Bis Tag 28 trat keine weitere Festigkeitssteigerung ein. Der Hüttensand-Binder erreichte nach zwei Tagen 62 N/mm². Durch die Hüttensandreaktion stieg die Festigkeit bis auf 85 N/mm² nach 28 Tagen an.
Für den Herstellungsprozess von Niedertemperatur-C2S-Binder wurden Energieverbräuche und CO2-Emissionen abgeschätzt. Es deutet sich an, dass, bezogen auf die Bindemittelmenge, keine wesentlichen Einsparungen im Vergleich zur Portlandzementherstellung möglich sind. Für die tatsächlichen Emissionen muss jedoch zusätzlich die Leistungsfähigkeit der Bindemittel berücksichtigt werden. Die Leistungsfähigkeit kann als erforderliche Bindemittelmenge betrachtet werden, die je m³ Beton eingesetzt werden muss, um bestimmte Festigkeits-, Dauerhaftigkeits- und Verarbeitungseigenschaften zu erreichen.
Aus verschiedenen Veröffentlichungen [94, 201, 206] wurde die These abgeleitet, dass die Leistungsfähigkeit eines Bindemittels maßgeblich von der C-S-H-Menge bestimmt wird, die während der Hydratation gebildet wird. Daher wird für NT-C2S-Binder eine außergewöhnlich hohe Leistungsfähigkeit erwartet.
Auf Basis der Leistungsfähigkeitsthese verringern sich die abgeschätzten CO2-Emissionen von NT-C2S-Bindern, sodass gegenüber Portlandzement ein mögliches Einsparpotenzial von 42 % ermittelt wurde.
The need for finding persuasive arguments can arise in a variety of domains such as politics, finance, marketing or personal entertainment. In these domains, there is a demand to make decisions by oneself or to convince somebody about a specific topic. To obtain a conclusion, one has to search thoroughly different sources in literature and on the web to compare various arguments. Voice interfaces, in form of smartphone applications or smart speakers, present the user with natural conversations in a comfortable way to make search requests in contrast to a traditional search interface with keyboard and display. Benefits and obstacles of such a new interface are analyzed by conducting two studies. The first one consists of a survey for analyzing the target group with questions about situations, motivations, and possible demanding features. The latter one is a wizard-of-oz experiment to investigate possible queries on how a user formulates requests to such a novel system. The results indicate that a search interface with conversational abilities can build a helpful assistant, but to satisfy the demands of a broader audience some additional information retrieval and visualization features need to be implemented.
Long-span bridges are prone to wind-induced vibrations. Therefore, a reliable representation of the aerodynamic forces acting on a bridge deck is of a major significance for the design of such structures. This paper presents a systematic study of the two-dimensional (2D) fluid-structure interaction of a bridge deck under smooth and turbulent wind conditions. Aerodynamic forces are modeled by two approaches: a computational fluid dynamics (CFD) model and six semi-analytical models. The vortex particle method is utilized for the CFD model and the free-stream turbulence is introduced by seeding vortex particles upstream of the deck with prescribed spectral characteristics. The employed semi-analytical models are based on the quasi-steady and linear unsteady assumptions and aerodynamic coefficients obtained from CFD analyses.
The underlying assumptions of the semi-analytical aerodynamic models are used to interpret the results of buffeting forces and aeroelastic response due to a free-stream turbulence in comparison with the CFD model. Extensive discussions are provided to analyze the effect of linear fluid memory and quasi-steady nonlinearity from a CFD perspective. The outcome of the analyses indicates that the fluid memory is a governing effect in the buffeting forces and aeroelastic response, while the effect of the nonlinearity is overestimated by the quasi-steady models. Finally, flutter analyses are performed and the obtained critical velocities are further compared with wind tunnel results, followed by a brief examination of the post-flutter behavior. The results of this study provide a deeper understanding of the extent of which the applied models are able to replicate the physical processes for fluid-structure interaction phenomena in bridge aerodynamics and aeroelasticity.
The accurate representation of aerodynamic forces is essential for a safe, yet reasonable design of long-span bridges subjected to wind effects. In this paper, a novel extension of the Pseudo-three-dimensional Vortex Particle Method (Pseudo-3D VPM) is presented for Computational Fluid Dynamics (CFD) buffeting analysis of line-like structures. This extension entails an introduction of free-stream turbulent fluctuations, based on the velocity-based turbulence generation. The aerodynamic response of a long-span bridge is obtained by subjecting the 3D dynamic representation of the structure to correlated free-stream turbulence in two-dimensional (2D) fluid planes, which are positioned along the bridge deck. The span-wise correlation of the free-stream turbulence between the 2D fluid planes is established based on Taylor's hypothesis of frozen turbulence. Moreover, the application of the laminar Pseudo-3D VPM is extended to a multimode flutter analysis. Finally, the structural response from the Pseudo-3D flutter and buffeting analyses is verified with the response, computed using the semi-analytical linear unsteady model in the time-domain. Meaningful merits of the turbulent Pseudo-3D VPM with respect to the linear unsteady model are the consideration of the 2D aerodynamic nonlinearity, nonlinear fluid memory, vortex shedding and local non-stationary turbulence effects in the aerodynamic forces. The good agreement of the responses for the two models in the 3D analyses demonstrates the applicability of the Pseudo-3D VPM for aeroelastic analyses of line-like structures under turbulent and laminar free-stream conditions.
This cumulative dissertation discusses - by the example of four subsequent publications - the various layers of a tangible interaction framework, which has been developed in conjunction with an electronic musical instrument with a tabletop tangible user interface. Based on the experiences that have been collected during the design and implementation of that particular musical application, this research mainly concentrates on the definition of a general-purpose abstraction model for the encapsulation of physical interface components that are commonly employed in the context of an interactive surface environment. Along with a detailed description of the underlying abstraction model, this dissertation also describes an actual implementation in the form of a detailed protocol syntax, which constitutes the common element of a distributed architecture for the construction of surface-based tangible user interfaces. The initial implementation of the presented abstraction model within an actual application toolkit is comprised of the TUIO protocol and the related computer-vision based object and multi-touch tracking software reacTIVision, along with its principal application within the Reactable synthesizer. The dissertation concludes with an evaluation and extension of the initial TUIO model, by presenting TUIO2 - a next generation abstraction model designed for a more comprehensive range of tangible interaction platforms and related application scenarios.
Die hier vorliegende Arbeit befasst sich mit dem Modifizieren von Computerspielen (Modding). Die Annäherung an das Modding geschieht aus zwei unterschiedlichen Blickrichtungen: Zum einen wird mit einem analytischen Blick auf das Themenfeld geschaut, der das bereits Erforschte mit den eigenen Suchbewegungen kombiniert. Zum anderen wird die Perspektive der Handlung eingenommen, die sich in der Widerständigkeit des Materials, der Werkzeuge und der Spieltechnologie äußert. Im Mittelpunkt der Auseinandersetzung stehen das Modding als Praxis, die Mods als Derivate und die Erforschung des Computerspiels mit den Praktiken und Derivaten des Modifizierens. Das Modding wird so zu einer epistemischen Praxis des Computerspiels.
Die hier formulierten Überlegungen zum Modding, als eine forschende Praxis des Computerspiels, präsentieren eine Vorgehensweise, die ästhetische, widerständige und stabilisierende Aspekte in sich vereint. Sie dient der Erforschung des Computerspiels entlang seiner Diskussionen, Materialien, Technologien und Praktiken und fokussiert hierbei auf das Abseitige, dass als integraler Bestandteil des Computerspiels verstanden wird. Mit diesem Blick auf die Grenzen des Computerspielens werden Dinge sichtbar, die zwar Teil der synthetischen Computerspielwelten sind, durch dessen Inszenierungen und Atmosphären jedoch verschleiert werden. Der hier entwickelte Ansatz ermöglicht einen Perspektivenwechsel innerhalb dieser Welten und die Erforschung des Computerspiels unter besonderer Berücksichtigung seiner eingeschriebenen Normen und Machtverhältnissen. Das Modding dient hierbei als eine kritische Praxis zur Entschlüsselung dieser medial vermittelten Konstellationen.
Increasing structural robustness is the goal which is of interest for structural engineering community. The partial collapse of RC buildings is subject of this dissertation. Understanding the robustness of RC buildings will guide the development of safer structures against abnormal loading scenarios such as; explosions, earthquakes, fine, and/or long-term accumulation effects leading to deterioration or fatigue. Any of these may result in local immediate structural damage, that can propagate to the rest of the structure causing what is known by the disproportionate collapse.
This work handels collapse propagation through various analytical approaches which simplifies the mechanical description of damaged reinfoced concrete structures due to extreme acidental event.
Polymeric nanocomposites (PNCs) are considered for numerous nanotechnology such as: nano-biotechnology, nano-systems, nanoelectronics, and nano-structured materials. Commonly , they are formed by polymer (epoxy) matrix reinforced with a nanosized filler. The addition of rigid nanofillers to the epoxy matrix has offered great improvements in the fracture toughness without sacrificing other important thermo-mechanical properties. The physics of the fracture in PNCs is rather complicated and is influenced by different parameters. The presence of uncertainty in the predicted output is expected as a result of stochastic variance in the factors affecting the fracture mechanism. Consequently, evaluating the improved fracture toughness in PNCs is a challenging problem.
Artificial neural network (ANN) and adaptive neuro-fuzzy inference system (ANFIS) have been employed to predict the fracture energy of polymer/particle nanocomposites. The ANN and ANFIS models were constructed, trained, and tested based on a collection of 115 experimental datasets gathered from the literature. The performance evaluation indices of the developed ANN and ANFIS showed relatively small error, with high coefficients of determination (R2), and low root mean square error and mean absolute percentage error.
In the framework for uncertainty quantification of PNCs, a sensitivity analysis (SA) has been conducted to examine the influence of uncertain input parameters on the fracture toughness of polymer/clay nanocomposites (PNCs). The phase-field approach is employed to predict the macroscopic properties of the composite considering six uncertain input parameters. The efficiency, robustness, and repeatability are compared and evaluated comprehensively for five different SA methods.
The Bayesian method is applied to develop a methodology in order to evaluate the performance of different analytical models used in predicting the fracture toughness of polymeric particles nanocomposites. The developed method have considered the model and parameters uncertainties based on different reference data (experimental measurements) gained from the literature. Three analytical models differing in theory and assumptions were examined. The coefficients of variation of the model predictions to the measurements are calculated using the approximated optimal parameter sets. Then, the model selection probability is obtained with respect to the different reference data.
Stochastic finite element modeling is implemented to predict the fracture toughness of polymer/particle nanocomposites. For this purpose, 2D finite element model containing an epoxy matrix and rigid nanoparticles surrounded by an interphase zone is generated. The crack propagation is simulated by the cohesive segments method and phantom nodes. Considering the uncertainties in the input parameters, a polynomial chaos expansion (PCE) surrogate model is construed followed by a sensitivity analysis.
Polymer-modified cement concrete (PCC) is a heterogeneous building material with a hierarchically organized microstructure. Therefore, continuum micromechanics-based multiscale models represent a promising method to estimate the mechanical properties. By means of a bottom-up approach, homogenized properties at the macroscopic scale are derived considering microstructural characteristics. The extension of existing multiscale models for the application to PCC is the main objective of this work. For that, cross-scale experimental studies are required. Both macroscopic and microscopic mechanical tests are performed to characterize the elastic and viscoelastic properties of different PCC. The comparison between experiment and model prediction illustrates the success of the modeling approach.
Management strategies for sustainable sugarcane production need to deal with the increasing complexity and variability of the whole sugar system. Moreover, they need to accommodate the multiple goals of different industry sectors and the wider community. Traditional disciplinary approaches are unable to provide integrated management solutions, and an approach based on whole systems analysis is essential to bring about beneficial change to industry and the community. The application of this approach to water management, environmental management and cane supply management is outlined, where the literature indicates that the application of extreme learning machine (ELM) has never been explored in this realm. Consequently, the leading objective of the current research was set to filling this gap by applying ELM to launch swift and accurate model for crop production data-driven. The key learning has been the need for innovation both in the technical aspects of system function underpinned by modelling of sugarcane growth. Therefore, the current study is an attempt to establish an integrate model using ELM to predict the concluding growth amount of sugarcane. Prediction results were evaluated and further compared with artificial neural network (ANN) and genetic programming models. Accuracy of the ELM model is calculated using the statistics indicators of Root Means Square Error (RMSE), Pearson Coefficient (r), and Coefficient of Determination (R2) with promising results of 0.8, 0.47, and 0.89, respectively. The results also show better generalization ability in addition to faster learning curve. Thus, proficiency of the ELM for supplementary work on advancement of prediction model for sugarcane growth was approved with promising results.
Spätestens seit dem Herbst 2015, als fluchtbedingte Migration nach Europa und Deutschland sich immens verstärkte, ist das Thema Flucht im öffentlichen Diskurs omnipräsent. Auch in der Forschung findet die Thematik in den letzten Jahren wieder mehr Beachtung. Wenig betrachtet wird bisher jedoch die Schnittstelle von Stadt- und Migrationsforschung, insbesondere in Bezug auf den öffentlichen Raum und geschlechtsspezifische Eigenheiten, die dabei zum Tragen kommen.
An dieser Stelle knüpft die Arbeit an und versucht sich der Thematik über die Frage „Wie nutzen geflüchtete Frauen öffentliche Räume in der Stadt und wie nehmen sie diese wahr?“ anzunähern. Dafür wird zunächst aus soziologischer und raumtheoretischer Perspektive der Einfluss von Machtmechanismen, weiblicher Identität und Migrations- bzw. Fluchthintergrund auf die Wahrnehmung und Nutzung von Raum betrachtet. Anschließend wird mit Hilfe von qualitativen Expertinnen-Interviews sowie in Zusammenarbeit mit geflüchteten Frauen unter Anwendung der Methode der Mental-Maps und deren Auswertung am Beispiel von Weimar untersucht, welchen Stellenwert öffentlicher Raum im Alltag der Frauen einnimmt und wie dieser perzipiert wird. Hierbei stellt sich heraus, dass öffentliche Räume für die betrachtete Zielgruppe keine wesentliche Bedeutung haben und ihr Fokus vielmehr auf halbprivaten institutionalisierten Räumen liegt. Inwieweit dies eine Besonderheit für die Gruppe geflüchteter Frauen darstellt, könnte im Abgleich mit anderen Zielgruppen in weiteren Untersuchungen betrachtet werden.
Der vorliegende Beitrag beschreibt die Problematik bei der Prognose verkehrsbedingter Schadstoff-Immissionen. Im Mittelpunkt steht die Entwicklung und der Aufbau einer Simulationsumgebung zur Evaluation von umweltorientierten Verkehrsmanagement-Strategien. Die Simulationsumgebung wird über die drei Felder Verkehr, Emission, Immission entwickelt und findet zunächst Anwendung in der Evaluation verkehrlicher Maßnahmen für die Friedberger Landstraße in Frankfurt am Main.
The production of a desired product needs an effective use of the experimental model. The present study proposes an extreme learning machine (ELM) and a support vector machine (SVM) integrated with the response surface methodology (RSM) to solve the complexity in optimization and prediction of the ethyl ester and methyl ester production process. The novel hybrid models of ELM-RSM and ELM-SVM are further used as a case study to estimate the yield of methyl and ethyl esters through a trans-esterification process from waste cooking oil (WCO) based on American Society for Testing and Materials (ASTM) standards. The results of the prediction phase were also compared with artificial neural networks (ANNs) and adaptive neuro-fuzzy inference system (ANFIS), which were recently developed by the second author of this study. Based on the results, an ELM with a correlation coefficient of 0.9815 and 0.9863 for methyl and ethyl esters, respectively, had a high estimation capability compared with that for SVM, ANNs, and ANFIS. Accordingly, the maximum production yield was obtained in the case of using ELM-RSM of 96.86% for ethyl ester at a temperature of 68.48 °C, a catalyst value of 1.15 wt. %, mixing intensity of 650.07 rpm, and an alcohol to oil molar ratio (A/O) of 5.77; for methyl ester, the production yield was 98.46% at a temperature of 67.62 °C, a catalyst value of 1.1 wt. %, mixing intensity of 709.42 rpm, and an A/O of 6.09. Therefore, ELM-RSM increased the production yield by 3.6% for ethyl ester and 3.1% for methyl ester, compared with those for the experimental data.
Despite the high priority refugees are given in the public and political discussion, urban planning has not yet started to systematically consider the role of planning in asylum policy. Mostly, the subject of refugees’ arrival is addressed in local projects and housing without framing challenges and opportunities in the national and European context. A wider discussion on the used terminology of “integration” is missing just as much as a self-critical reflection on the orientation of planning discourses on the issue of housing only. In this editorial our thematic issue “European Cities Planning for Asylum” is introduced andresented.
Music as living heritage
(2018)
What is cultural heritage, and why has it received so much public interest in recent years? Almost three decades after the World Organization UNESCO defined and established international recognition of Cultural and Natural Heritage sites and devised ways of protecting them, a completely new approach to cultural heritage emerged with the UNESCO
Convention for the Safeguarding of the Intangible Cultural Heritage in 2003. This global agreement for the maintenance, protection and dissemination of cultural manifestations and achievements that are not tangible objects or immobile monuments, like previous items classified as World Heritage, was a remarkable milestone of international cultural politics. This new understanding of cultural heritage owes much to representatives from Asian, African, and Latin American countries. In fact, just a few years after the promulgation of the 2003 Convention, the world cultural heritage map had already lost much of its European predominance. Asian countries such as China, Japan, South Korea, and India very soon showed up with lists of manifestations of their centenary (in some cases even millenary) national cultural heritages.
A broadband soil dielectric spectra retrieval approach ( 1 MHz– 2 GHz) has been implemented for a layered half space. The inversion kernel consists of a two-port transmission line forward model in the frequency domain and a constitutive material equation based on a power law soil mixture rule (Complex Refractive Index Model - CRIM). The spatially-distributed retrieval of broadband dielectric spectra was achieved with a global optimization approach based on a Shuffled Complex Evolution (SCE) algorithm using the full set of the scattering parameters. For each layer, the broadband dielectric spectra were retrieved with the corresponding parameters thickness, porosity, water saturation and electrical conductivity of the aqueous pore solution. For the validation of the approach, a coaxial transmission line cell measured with a network analyzer was used. The possibilities and limitations of the inverse parameter estimation were numerically analyzed in four scenarios. Expected and retrieved layer thicknesses, soil properties and broadband dielectric spectra in each scenario were in reasonable agreement. Hence, the model is suitable for an estimation of in-homogeneous material parameter distributions. Moreover, the proposed frequency domain approach allows an automatic adaptation of layer number and thickness or regular grids in time and/or space.
Auguste Rodins Weimarer Eva
(2018)
Das Stapelhaus fördert das experimentelle Bauen und Forschen an der Bauhaus-Universität Weimar. Ziel ist es, schrittweise Raummodule als Arbeitsräume von Studierenden für Studierende zu bauen. Im Zusammenhang bildet sich ein kompaktes und gestapeltes Raumgefüge, das fakultätsübergreifend Raum für Experimente, Erlebnisse und Evaluierung lässt.
Elitenkritik, populare Bündnisse und inklusive Solidaritär. Interview zur Debatte um Linkspopulismus
(2018)
In der aktuellen ökonomischen und politischen Krise haben Debatten um linke Strategien wieder Hochkonjunktur. Besonders kontrovers werden Vorschläge diskutiert, die einen Linkspopulismus als Alternative zum rechten politischen Projekt, zum Neoliberalismus und als Transformationsstrategie hin zu einer sozialistischen Gesellschaft propagieren. Thomas Goes und Violetta Bock haben mit ihrem Buch Ein unanständiges Angebot? Mit linkem Populismus gegen Eliten und Rechte (2017) eine programmatische Aufarbeitung existierender linker Populismuskonzepte und ihre eigene Vorstellung davon, wie ein linker Populismus gelingen kann, vorgelegt. Damit haben sie die Debatte um Linkspopulismus in Deutschland befeuert. Im Interview werden sie nach ihren Positionen und den Kontroversen um das Buch befragt. Das Interview soll als Aufschlag für eine Debatte dienen. Antworten zu den dargestellten Positionen und Bezüge zu städtischen Themen und städtischen sozialen Bewegungen sind sehr willkommen.
Córdoba es la segunda ciudad más poblada de la Argentina, y posee el ejido municipal más extenso del país, siendo un importante centro industrial y de servicios del centro del país. Es además la cabecera de la segunda región metropolitana argentina, el Área Metropolitana de Córdoba (AMCBA). Si bien el desarrollo de sus áreas centrales y periurbanas es un tema bastante desarrollado académicamente, actualmente hay un vacío de conocimiento en la situación actual de las áreas pericentrales e intermedias de esta ciudad -aun cuando ocupan más del 30% del área urbanizada y donde habita la mayor parte de su población-. Es en estas áreas donde se ubica el objeto de estudio de esta tesis: los barrios pericentrales que forman un anillo alrededor del área central. Originados como extensiones suburbanas alrededor de 1940, y consolidados como barrios residenciales de clase media y media alta de baja densidad antes de 1970, ocupan lo que son hoy algunas de las áreas con mejor calidad ambiental y urbana de la ciudad.
Los barrios pericentrales son considerados generalmente consolidados y estables; sin embargo, analizados en detalle, muestran complejas transformaciones: un vaciamiento poblacional constante, a pesar del crecimiento demográfico en general de Córdoba y el AMCBA; aumento de inmuebles abandonados; y a diferencia de sectores en una similar posición, no son objeto de grandes inversiones inmobiliarias de renovación urbana.
Esta situación es invisibilizada, en parte por ser resultado de procesos con poco impacto relativo en la ciudad, y en parte porque estos procesos no están contemplados por los modelos urbanos locales vigentes –basados en la teoría racionalista y determinista de principios del siglo XX-, que conceptualizan a los barrios pericentrales como una “panacea urbana”. Esta tesis puso en disputa estos modelos, partiendo de la discusión sobre un fenómeno informal detectado indefectiblemente (aunque no exclusivamente) en estos barrios pericentrales: la microdensificación emergente.
La imposibilidad de colocar los inmuebles existentes en el mercado hace que los propietarios busquen nuevas formas de valorizar sus propiedades, de facilitar el acceso a la vivienda a sus hijos o de invertir sus ahorros de forma segura, obteniendo una fuente adicional de ingresos: en cada parcela edificada se aumenta la cantidad de unidades funcionales, aprovechando la superficie construible vacante o refuncionalizando las construcciones obsoletas, aunque manteniendo el grano y la escala de intervención respecto al tejido existente. La oferta de hábitat en estos barrios se diversifica, y no sólo evita la expulsión de población, sino que también atrae a nuevos habitantes. Además, en un tejido originalmente sólo residencial, incorpora actividades de comercio y servicios que enriquecen el tejido funcional.
El proceso se realiza sin planificación general (y por supuesto fuera del marco legal): es la suma de acciones individuales que se reconstruyen como una “tendencia” o “patrón emergente”, revitalizando el tejido urbano de forma sutil pero definitiva.
Se planteó como hipótesis que la microdensificación emergente es un proceso de revitalización que aprovecha el potencial del tejido de estos barrios de forma más sostenible y eficiente que el modelo impuesto formalmente.
10
La tesis se encuadró bajo el enfoque sistémico de la complejidad. Este enfoque entiende a la ciudad como un sistema complejo y dinámico, en desarrollo constante; determinado más por las interrelaciones entre sus componentes y entre esos componentes y el contexto, que por las condiciones de cada elemento individualmente. La calidad y cantidad de estas interacciones es primordial, al punto de definir la condición urbana de una aglomeración. Según estas premisas, un sistema urbano sostenible y eficiente será aquel que, maximizando recursos materiales y humanos (y de acuerdo a la capacidad de carga del sistema) desarrolle de redes de intercambio múltiples, diversas y descentralizadas, que generen procesos de sinergia y desarrollo inclusivos.
La investigación se estructuró entonces de forma tal de responder las siguientes preguntas:
•
En primer lugar, ¿cuáles son las condiciones específicas que catalizan la microdensificación en los barrios pericentrales de Córdoba?
•
Siendo la microdensificación una respuesta a una situación particular dentro del sistema urbano, ¿Cuál es el grado de sostenibilidad y eficiencia que aporta a los barrios pericentrales (en particular) y a Córdoba (en general)?
•
Y tras haber identificado su impacto en la estructura urbana, su potencial transformador y organizativo, ¿puede el estudio de los procesos emergentes hacer un aporte conceptual e instrumental a los modelos locales de planeamiento urbano?
Primeramente, un análisis documental reconstruyó la condición específica de los barrios pericentrales, y el escenario actual de Córdoba con respecto a la producción y acceso al hábitat urbano. Luego se infirió un escenario tendencial a corto y mediano plazo, que sirvió para definir distintos patrones de territorialización, incluyendo el patrón “formal” de los barrios pericentrales. Se continuó con el análisis específico de la microdensificación, proponiendo un escenario posible a mediano plazo donde el patrón de microdensificación ha sido plenamente desarrollado, transformando cuali y cuantitativamente el tejido espacio-funcional y socioeconómico.
A partir de estos resultados, se realizó un análisis comparativo de los distintos patrones de desarrollo urbano de Córdoba en cuanto a su sostenibilidad y eficiencia. Se demostró que el patrón de microdensificación en los barrios pericentrales es mucho más sostenible y eficiente que los patrones formales existentes, y se abrió la discusión que se desarrolla en la última parte de esta tesis:
El argumento desarrollado en esta investigación y los resultados que de él se desprenden tienen un carácter analítico y explicativo útil para el análisis de otros escenarios en el contexto urbano argentino y latinoamericano. En primer lugar, sobre preferir la revitalización progresiva frente a la renovación total o la creación de nuevo suelo urbano en la periferia; promover una ciudad compacta, diversa e inclusiva tanto social como funcionalmente; basada en la multiplicación y diversificación de los agentes productores de ciudad; que considera estos procesos, así como los mecanismos de empoderamiento, participación y gobernanza como instrumentos para lograr mayor sostenibilidad y eficiencia en el desarrollo urbano. Por otro lado, esta tesis puso en relevancia el rol de los procesos emergentes en un sistema urbano como mecanismo vital para generar esta revitalización. Finalmente, se discute el aporte del enfoque sistémico para comprender, explicar y proponer intervenciones a la disciplina.
Für eine Abschätzung des Heizwärmebedarfs von Gebäuden und Quartieren können thermisch-energetische Simulationen eingesetzt werden. Grundlage dieser Simulationen sind geometrische und physikalische Gebäudemodelle. Die Erstellung des geometrischen Modells erfolgt in der Regel auf Basis von Bauplänen oder Vor-Ort-Begehungen, was mit einem großen Recherche- und Modellierungsaufwand verbunden ist. Spätere bauliche Veränderungen des Gebäudes müssen häufig manuell in das Modell eingearbeitet werden, was den Arbeitsaufwand zusätzlich erhöht. Das physikalische Modell stellt die Menge an Parametern und Randbedingungen dar, welche durch Materialeigenschaften, Lage und Umgebungs-einflüsse gegeben sind. Die Verknüpfung beider Modelle wird innerhalb der entsprechenden Simulations-software realisiert und ist meist nicht in andere Softwareprodukte überführbar. Mithilfe des Building Information Modeling (BIM) können Simulationsdaten sowohl konsistent gespeichert als auch über Schnittstellen mit entsprechenden Anwendungen ausgetauscht werden. Hierfür wird eine Methode vorgestellt, die thermisch-energetische Simulationen auf Basis des standardisierten Übergabe-formats Industry Foundation Classes (IFC) inklusive anschließender Auswertungen ermöglicht. Dabei werden geometrische und physikalische Parameter direkt aus einem über den gesamten Lebenszyklus aktuellen Gebäudemodell extrahiert und an die Simulation übergeben. Dies beschleunigt den Simulations-prozess hinsichtlich der Gebäudemodellierung und nach späteren baulichen Veränderungen. Die erarbeite-te Methode beruht hierbei auf einfachen Modellierungskonventionen bei der Erstellung des Bauwerksinformationsmodells und stellt eine vollständige Übertragbarkeit der Eingangs- und Ausgangswerte sicher.
Thermal building simulation based on BIM-models. Thermal energetic simulations are used for the estimation of the heating demand of buildings and districts. These simulations are based on building models containing geometrical and physical information. The creation of geometrical models is usually based on existing construction plans or in situ assessments which demand a comparatively big effort of investigation and modeling. Alterations, which are later applied to the structure, request manual changes of the related model, which increases the effort additionally. The physical model represents the total amount of parameters and boundary conditions that are influenced by material properties, location and environmental influences on the building. The link between both models is realized within the correspondent simulation soft-ware and is usually not transferable to other software products. By Applying Building Information Modeling (BIM) simulation data is stored consistently and an exchange to other software is enabled. Therefore, a method which allows a thermal energetic simulation based on the exchange format Industry Foundation Classes (IFC) including an evaluation is presented. All geometrical and physical information are extracted directly from the building model that is kept up-to-date during its life cycle and transferred to the simulation. This accelerates the simulation process regarding the geometrical modeling and adjustments after later changes of the building. The developed method is based on simple conventions for the creation of the building model and ensures a complete transfer of all simulation data.
Für eine Abschätzung des Heizwärmebedarfs von Gebäuden und Quartieren können thermisch-energetische Simulationen eingesetzt werden. Grundlage dieser Simulationen sind geometrische und physikalische Gebäudemodelle. Die Erstellung des geometrischen Modells erfolgt in der Regel auf Basis von Bauplänen oder Vor-Ort-Begehungen, was mit einem großen Recherche- und Modellierungsaufwand verbunden ist. Spätere bauliche Veränderungen des Gebäudes müssen häufig manuell in das Modell eingearbeitet werden, was den Arbeitsaufwand zusätzlich erhöht. Das physikalische Modell stellt die Menge an Parametern und Randbedingungen dar, welche durch Materialeigenschaften, Lage und Umgebungs-einflüsse gegeben sind. Die Verknüpfung beider Modelle wird innerhalb der entsprechenden Simulations-software realisiert und ist meist nicht in andere Softwareprodukte überführbar.
Mithilfe des Building Information Modeling (BIM) können Simulationsdaten sowohl konsistent gespeichert als auch über Schnittstellen mit entsprechenden Anwendungen ausgetauscht werden. Hierfür wird eine Methode vorgestellt, die thermisch-energetische Simulationen auf Basis des standardisierten Übergabe-formats Industry Foundation Classes (IFC) inklusive anschließender Auswertungen ermöglicht. Dabei werden geometrische und physikalische Parameter direkt aus einem über den gesamten Lebenszyklus aktuellen Gebäudemodell extrahiert und an die Simulation übergeben. Dies beschleunigt den Simulations-prozess hinsichtlich der Gebäudemodellierung und nach späteren baulichen Veränderungen. Die erarbeite-te Methode beruht hierbei auf einfachen Modellierungskonventionen bei der Erstellung des Bauwerksinformationsmodells und stellt eine vollständige Übertragbarkeit der Eingangs- und Ausgangswerte sicher.
Thermal building simulation based on BIM-models. Thermal energetic simulations are used for the estimation of the heating demand of buildings and districts. These simulations are based on building models containing geometrical and physical information. The creation of geometrical models is usually based on existing construction plans or in situ assessments which demand a comparatively big effort of investigation and modeling. Alterations, which are later applied to the structure, request manual changes of the related model, which increases the effort additionally. The physical model represents the total amount of parameters and boundary conditions that are influenced by material properties, location and environmental influences on the building. The link between both models is realized within the correspondent simulation soft-ware and is usually not transferable to other software products.
By Applying Building Information Modeling (BIM) simulation data is stored consistently and an exchange to other software is enabled. Therefore, a method which allows a thermal energetic simulation based on the exchange format Industry Foundation Classes (IFC) including an evaluation is presented. All geometrical and physical information are extracted directly from the building model that is kept up-to-date during its life cycle and transferred to the simulation. This accelerates the simulation process regarding the geometrical modeling and adjustments after later changes of the building. The developed method is based on simple conventions for the creation of the building model and ensures a complete transfer of all simulation data.
SEEING HISTORY - THE AUGMENTED ARCHIVE erforscht – in Theorie und Praxis – die Medialitäten des Archivs in Zeiten des Übergangs vom Speichermedium hin zum Modus des Übertragens. Am Beispiel Ägyptens seit den politischen Umwälzungen 2011 wird ein neues Archivsystem entwickelt, das mit Hilfe von Augmented Reality Technologie - d.h. der virtuellen Erweiterung des Realraums von mobiler Videotechnik durch Metainformationen - das umfassendste bestehende Videoarchiv zur ägyptischen Revolution im Stadtraum Kairos per GPS-Kodierung zur Verfügung stellt.
As one of its primary objectives, Computer Graphics aims at the simulation of fabrics’ complex reflection behaviour. Characteristic surface reflectance of fabrics, such as highlights, anisotropy or retro-reflection arise the difficulty of synthesizing. This problem can be solved by using Bidirectional Texture Functions (BTFs), a 2D-texture under various light and view direction. But the acquisition of Bidirectional Texture Functions requires an expensive setup and the measurement process is very time-consuming. Moreover, the size of BTF data can range from hundreds of megabytes to several gigabytes, as a large number of high resolution pictures have to be used in any ideal cases. Furthermore, the three-dimensional textured models rendered through BTF rendering method are subject to various types of distortion during acquisition, synthesis, compression, and processing. An appropriate image quality assessment scheme is a useful tool for evaluating image processing algorithms, especially algorithms designed to leave the image visually unchanged. In this contribution, we present and conduct an investigation aimed at locating a robust threshold for downsampling BTF images without loosing perceptual quality. To this end, an experimental study on how decreasing the texture resolution influences perceived quality of the rendered images has been presented and discussed.
Next, two basic improvements to the use of BTFs for rendering are presented: firstly, the study addresses the cost of BTF acquisition by introducing a flexible low-cost step motor setup for BTF acquisition allowing to generate a high quality BTF database taken at user-defined arbitrary angles. Secondly, the number of acquired textures to the perceptual quality of renderings is adapted so that the database size is not overloaded and can fit better in memory when rendered.
Although visual attention is one of the essential attributes of HVS, it is neglected in most existing quality metrics. In this thesis an appropriate objective quality metric based on extracting visual attention regions from images and adequate investigation of the influence of visual attention on perceived image quality assessment, called Visual Attention Based Image Quality Metric (VABIQM), has been proposed. The novel metric indicates that considering visual saliency can offer significant benefits with regard to constructing objective quality metrics to predict the visible quality differences in images rendered by compressed and non-compressed BTFs and also outperforms straightforward existing image quality metrics at detecting perceivable differences.
Performance assessment of a ductless personalized ventilation system using a validated CFD model
(2018)
The aim of this study is twofold: to validate a computational fluid dynamics (CFD) model, and then to use the validated model to evaluate the performance of a ductless personalized ventilation (DPV) system. To validate the numerical model, a series of measurements was conducted in a climate chamber equipped with a thermal manikin. Various turbulence models, settings, and options were tested; simulation results were compared to the measured data to determine the turbulence model and solver settings that achieve the best agreement between the measured and simulated values. Subsequently, the validated CFD model was then used to evaluate the thermal environment and indoor air quality in a room equipped with a DPV system combined with displacement ventilation. Results from the numerical model were then used to quantify thermal sensation and comfort using the UC Berkeley thermal comfort model.
Die Zonenmethode nach Hertz ist ein vereinfachtes Verfahren zur Heißbemessung von Stahlbetonbauteilen. Um eine händische Bemessung zu ermöglichen, werden daher verschiedene Annahmen und Vereinfachungen getroffen. Insbesondere werden die thermischen Dehnungen vernachlässigt und das mechanische Verhalten durch einen verkleinerten Querschnitt mit konstanten Stoffeigenschaften beschrieben.
Ziel der vorliegenden Arbeit ist, dieses vereinfachte Verfahren in ein nichtlineares Verfahren zur Heißbemessung von Stahlbetondruckgliedern bei Brandbeanspruchung durch die Einheits-Temperaturzeitkurve zu überführen. Dazu werden die wesentlichen Annahmen der Zonenmethode überprüft und ein Vorschlag zur Weiterentwicklung vorgestellt. Dieser beruht im Wesentlichen auf der Modellierung der druckbeanspruchten Bewehrung. Diese weiterentwickelte Zonenmethode wird durch die Nachrechnung von Laborversuchen validiert und das Sicherheitsniveau durch eine vollprobabilistische Analyse und den Vergleich mit dem allgemeinen Verfahren bestimmt.
30. Forum Bauinformatik
(2018)
Die Bauhaus-Universität Weimar ist seit langer Zeit mit dem Forum Bauinformatik eng verbunden. So wurde die Veranstaltung 1989 hier durch den Arbeitskreis Bauinformatik ins Leben gerufen und auch das 10. und 18. Forum Bauinformatik (1998 bzw. 2006) fand in Weimar statt. In diesem Jahr freuen wir uns daher besonders, das 30. Jubiläum an der Bauhaus-Universität Weimar ausrichten zu dürfen und viele interessierte Wissenschaftler und Wissenschaftlerinnen aus dem Bereich der Bauinformatik in Weimar willkommen zu heißen.
Das Forum Bauinformatik hat sich längst zu einem festen Bestandteil der Bauinformatik im deutschsprachigen Raum entwickelt. Dabei steht es traditionsgemäß unter dem Motto „von jungen Forschenden für junge Forschende“, wodurch insbesondere Nachwuchswissenschaftlerinnen und ‑wissenschaftlern die Möglichkeit geboten wird, ihre Forschungsarbeiten zu präsentieren, Problemstellungen fachspezifisch zu diskutieren und sich über den neuesten Stand der Forschung zu informieren. Zudem wird eine ausgezeichnete Gelegenheit geboten, in die wissenschaftliche Gemeinschaft im Bereich der Bauinformatik einzusteigen und Kontakte mit anderen Forschenden zu knüpfen.
In diesem Jahr erhielten wir 49 interessante und qualitativ hochwertige Beiträge vor allem in den Themenbereichen Simulation, Modellierung, Informationsverwaltung, Geoinformatik, Structural Health Monitoring, Visualisierung, Verkehrssimulation und Optimierung. Dafür möchten wir uns ganz besonders bei allen Autoren, Co-Autoren und Reviewern bedanken, die durch ihr Engagement das diesjährige Forum Bauinformatik erst möglich gemacht haben. Wir danken zudem Professor Große und Professor Díaz für die Unterstützung bei der Auswahl der Beiträge für die Best Paper Awards.
Ein herzliches Dankeschön geht an die Kollegen an der Professur Informatik im Bauwesen der Bauhaus-Universität Weimar für die organisatorische, technische und beratende Unterstützung während der Planung der Veranstaltung.
Die folgende Studie misst in wirtschaftlicher Hinsicht den sozialen Wert und die Sozialrendite, die auf einem Teil des Fabrikgeländes von Can Batlló von 2011 bis heute entstanden sind. Um die Beiträge der Nachbarschaftsgemeinschaft in wirtschaftlicher Hinsicht zu messen, wurde eine doppelte Schätzmethode angewandt. Zum einen wurden die Beiträge der ehrenamtlichen Personen von Can Batlló in den Bereichen Verwaltung und Unterhaltung, Reinigung, Bau und Durchführung von Aktivitäten quantifiziert und bewertet. Zum anderen wurde der Wert von Can Batlló berechnet, indem ein Vergleich mit den Kosten angestellt wurde, die entstanden wären, wenn der Bau von Räumen und die Erbringung von Dienstleistungen auf Basis der Referenzpreise der jeweiligen Dienstleistung durch die Stadt erfolgt wären. Diese wirtschaftliche Bewertung der Sozialrendite wird durch die Gemeinwohlbilanz ergänzt, die von der Organisation erstellt wird.
Focus Mediocene
(2018)
This issue, following an international conference held at the IKKM in September 2017, is devoted to what may very well be the broadest media-related topic possible, even if it is accessible only through exemplary and experimental approaches: Under the title of the »Mediocene«, it presents contributions which discuss the operations and functions that intertwine media and Planet Earth. The specific relation of media and Planet Earth likely found its most striking and iconic formula in the images of the earth from outer space in 1968/69, showing the earth—according to contemporaneous descriptions—in its brilliance and splendor as the »Blue Marble«, but also in its fragility and desperate loneliness against the black backdrop of the cosmic void. Not only the creation but also the incredible distribution of this image across the globe was already at the time clearly recognized as a media eff ect. In light of space fl ight and television technology, which had expanded the reach of observation, communication, and measurement beyond both the surface of the Earth and its atmosphere, it also became clearly evident that the Planet had been a product of the early telescope by the use of which Galileo found the visual proof for the Copernican world model. Nevertheless, the »Blue Marble« image of the planet conceives of Earth not only as a celestial body, but also as a global, ecological, and economic system. Satellite and spacecraft technology and imaging continue to move beyond Earth’s orbit even as they enable precise, small-scale procedures of navigation and observation on the surface of the planet itself. These instruments of satellite navigation aff ect practices like agriculture, urban planning, and political decision-making. Most recently, three-dimensional images featuring the planet’s surface (generated from space by Synthetic Aperture Radar) or pictures from space probes have been cir-culating on the Web, altering politico-geographical practices and popular and scientifi c knowledge of the cosmos. Today, media not only participate in the shaping of the planet, but also take place on a planetary scale. Communication systems have been installed that operate all over the globe.
Am 22. Januar 2017 wurde die Beraterin des amerikanischen Präsidenten, Kellyanne Conway, in einem Meet the Press-Interview gefragt, warum der Pressesprecher des Präsidenten kurz zuvor eine »nachweisliche Lüge« bezüglich der Zahl der in Washington zur Amtseinführung Trumps zusammengekommenen Menschen geäußert habe. Conway antwortete: »Our press secretary, Sean Spicer, gave alternative facts […]«. Das war nicht nur eine Manifestation oder Überbietung von Orwellianischem »Newspeak«. Es war ein Moment, in dem sich ein Bruch mit dem in der westlichen Kultur bislang allgemein anerkannten Paradigma, worin die Faktizität von Daten – seien es Bilder, Zahlen, Aussagen – gründet, offen aussprach. Es war sozusagen ein ironischer Moment der Wahrheit – ironisch, weil dieser Moment einen Höhepunkt des »Post-Truth«-Zeitalters darstellte.
Doch welche Wahrheit? Dass es dazu unterschiedliche und zum Teil kontroverse Auffassungen gibt, zeigen die verschiedenen Deutungen und Instrumentalisierungen, die dieser Moment der Wahrheit in der Folge erfuhr. Der Debattenteil der letzten Ausgabe der Zeitschrift für Medien- und Kulturforschung hat bereits einen Teil dieser Kontroverse um die Deutung des Phänomens von »fake news« und »alternative facts« dokumentiert. Der Schwerpunkt der vorliegenden Ausgabe setzt diese Kontroverse fort, und zwar deswegen, weil die Kultur- und Medienwissenschaft in mehrfacher Weise vom Ereignis »alternativer Fakten« und den sich anschließenden Kontroversen um ihre Bewertung herausgefordert wird. Sehr schnell wurde nämlich klar, dass die Antwort auf die Frage, welche Wahrheit sich in jenem Moment kundtat, als die Welt aus dem (sich dabei merklich verziehenden) Munde von Kellyanne Conway vom Wunder der Existenz alternativer Fakten erfuhr, nicht einfach nur banal war. So banal wie die Tatsache, dass ein infantiler Narzissmus zur Richtschnur für die Konstruktion der offiziellen amerikanischen Regierungsversion von Wirklichkeit geworden ist, ein Narzissmus, der das, was ist (und wofür es zureichende Gründe gibt), zugunsten dessen verwirft, von dem er möchte, dass es stattdessen sei.