Refine
Has Fulltext
- yes (857) (remove)
Document Type
- Conference Proceeding (857) (remove)
Institute
- Professur Informatik im Bauwesen (336)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (174)
- Professur Baubetrieb und Bauverfahren (104)
- Professur Theorie und Geschichte der modernen Architektur (94)
- Graduiertenkolleg 1462 (32)
- Institut für Strukturmechanik (ISM) (23)
- Professur Angewandte Mathematik (18)
- Institut für Konstruktiven Ingenieurbau (IKI) (12)
- Junior-Professur Computational Architecture (11)
- Bauhaus-Institut für Geschichte und Theorie der Architektur und Planung (10)
Keywords
- Computerunterstütztes Verfahren (286)
- Architektur <Informatik> (200)
- CAD (158)
- Angewandte Informatik (145)
- Angewandte Mathematik (145)
- Computer Science Models in Engineering; Multiscale and Multiphysical Models; Scientific Computing (74)
- Bauhaus (68)
- Arbeitsschutz (61)
- Baustelle (53)
- Architekturtheorie (52)
Etwa ein Viertel des gesamten Endenergieverbrauchs (26%) in Deutschland entfällt auf den Wohnungssektor, wodurch dieser Sektor einen erheblichen Anteil am möglichen Einsparpotenzial an Energie hat. Im Hinblick auf das Klimaschutzziel der Europäischen Union, die Energieeffizienz im Vergleich zu 1990 um 20% zu erhöhen, stellt sich daher die Frage, welche Einsparpotenziale es im Wohnungssektor tatsächlich gibt und wie diese quantifiziert werden können. In dieser Arbeit wird der Einfluss der Parameter, die den Endenergieverbrauch beeinflussen, mit Hilfe einer Sensitivitätsanalyse bestimmt. Die Ergebnisse der Sensitivitätsanalyse zeigen, dass die einflussreichsten Parameter auf den Endenergieverbrauch der Innentemperaturbedarf, die Länge der Heizperiode, die Außentemperatur (Gradtagzahl) und die Anzahl der Wohnungen sind. Dies sind Variablen, die nicht durch Verordnungen reguliert werden können. Der einzige Parameter, der regulierbar ist und einen bedeutenden Einfluss auf den Endenergieverbrauch hat, ist der Nutzungsgrad der Anlagen/Geräte für Raumwärme, Warmwasser und Kochen (sowie zu einem geringen Teil der Wirkungsgrad der eingesetzten Beleuchtung). Zur Quantifizierung des Energieeinsparpotentials im deutschen Wohnungssektor bezüglich des Nutzungsgrades wurden in dieser Arbeit Daten zur Bestimmung der langfristigen Entwicklung (Zeitraum 1990-2010) des Nutzungsgrades von Anlagen und Geräten analysiert. Mit verschiedenen Angaben aus der Literatur und mit Hilfe von Sättigungskurven wurde die Entwicklung der Nutzugsgrade der Anlagen/Geräte entsprechend der Energiequellen zwischen 1990 und 2010 ermittelt. Die erhaltenden Sättigungskurven ermöglichen die Bestimmung der Entwicklung des Nutzenergieverbrauchs im deutschen Wohnungssektor. Hierbei wurde festgestellt, dass die Differenz zwischen Nutzenergieverbrauch und Endenergieverbrauch einen Rückgang von 12 % im betrachtenden Zeitraum verzeichnete und dass das Energieeinsparpotenzial in Abhängigkeit von der Energiequelle beträchtlich variieren kann (um derzeit mehr als 35%-Punkte). Im Hinblick auf das oben genannte Klimaschutzziel werden in dieser Arbeit verschiedene Entwicklungsszenarien auf Basis des Nutzungsgrades der Anlagen und der Energiequellen analysiert. Hierbei wird deutlich, dass das theoretische Energieeinsparpotenzial im deutschen Wohnungssektor bezüglich des durchschnittlichen Nutzungsgrades nur zwischen 4 und 15 % liegt. Dies bedeutet, dass eine deutliche Reduktion des Endenergiebedarfs im Wohnungssektor nur stattfinden kann, wenn andere Energieeinsparmaßnahmen betrachtet werden. Basierend auf den Ergebnissen der Sensitivitätsanalyse werden hierzu Empfehlungen gegeben.
With the advances of the computer technology, structural optimization has become a prominent field in structural engineering. In this study an unconventional approach of structural optimization is presented which utilize the Energy method with Integral Material behaviour (EIM), based on the Lagrange’s principle of minimum potential energy. The equilibrium condition with the EIM, as an alternative method for nonlinear analysis, is secured through minimization of the potential energy as an optimization problem. Imposing this problem as an additional constraint on a higher cost function of a structural property, a bilevel programming problem is formulated. The nested strategy of solution of the bilevel problem is used, treating the energy and the upper objective function as separate optimization problems. Utilizing the convexity of the potential energy, gradient based algorithms are employed for its minimization and the upper cost function is minimized using the gradient free algorithms, due to its unknown properties. Two practical examples are considered in order to prove the efficiency of the method. The first one presents a sizing problem of I steel section within encased composite cross section, utilizing the material nonlinearity. The second one is a discrete shape optimization of a steel truss bridge, which is compared to a previous study based on the Finite Element Method.
Entwicklung eines Sommerreferenzjahres zur Bestimmung der sommerlichen Überhitzung von Gebäuden
(2015)
Die Ableitung von sommer-fokussierten warmen Referenzjahren aus langjährigen Klimadaten erfolgt in Europa bisher nach unterschiedlichen, länderspezifischen Methoden, die sich in der Regel allein auf die Trockentemperatur beziehen und in der Auswahl eines zusammenhängenden realen Sommerhalbjahres resultieren. Simulationsergebnisse zur sommerlichen Überhitzung von natürlich belüfteten Gebäuden in Deutschland und Großbritannien zeigen jedoch für einige Wetterstationen weniger Überhitzung für Simulationen mit dem sommer-fokussierten Referenzjahr als für solche mit dem entsprechenden Testreferenzjahr (TRY) für den gleichen Ort. Dies gilt insbesondere dann, wenn einzelne Monate miteinander verglichen werden. Neben der Wahl eines kompletten Halbjahres, das sowohl extrem warme als auch vergleichsweise kühle Monate beinhalten kann, liegt dies vor allem begründet in der fehlenden Berücksichtigung der Solarstrahlung bei der Auswahl eines warmen Referenzjahres, die jedoch eine wichtige Rolle für sommerliche Überhitzungserscheinungen in Gebäuden spielt. Eine verlässliche, allgemein anerkannte Methode zur Erstellung von sommer-fokussierten Referenzjahren erscheint daher auch im Hinblick auf die rechtlichen Rahmenbedingungen in der Europäischen Union, die Strategien zur natürlichen Belüftung von Neubauten und Sanierungen begünstigen, erforderlich. Diese Arbeit präsentiert einen Ansatz zur Erstellung eines Sommerreferenzjahres (Summer Reference Year – SRY) aus dem TRY eines gegebenen Ortes und langjährigen Klimadaten. Die existierenden TRY-Daten werden hierbei skaliert, um den Bedingungen für Trockentemperatur und Solarstrahlung von nah-extremen Kandidatenjahren zu entsprechen, die separat über einen statistischen Ansatz ausgewählt werden. Anschließend werden Feuchttemperatur, Windgeschwindigkeit und Luftdruck des TRY durch lineare Korrelationen mit der Trockentemperatur angepasst, um die entsprechenden SRY-Daten zu erhalten. Der Vorteil dieser Methode liegt darin, dass das grundlegende Wettermuster des TRY erhalten bleibt und somit eine klare Relation zwischen SRY und TRY besteht, die eine Vergleichbarkeit von Simulationsergebnissen gewährleistet. Über vergleichende Gebäudesimulationen mit dem zugrundeliegenden TRY und langjährigen Klimadatensätzen kann nachgewiesen werden, dass sich das SRY zur Ermittlung sommerlicher Überhitzungserscheinungen in natürlich belüfteten Gebäuden eignet. Weiterhin kann gezeigt werden, dass das SRY im Gegensatz zur direkten Nutzung eines Kandidatenjahres für einen nah-extremen Sommer die Möglichkeit eines monatsscharfen Vergleichs mit dem TRY erlaubt und frei von wenig repräsentativen Besonderheiten ist, die in den entsprechenden Kandidatenjahren vorhanden sein können.
A central issue for the autonomous navigation of mobile robots is to map unknown environments while simultaneously estimating its position within this map. This chicken-eggproblem is known as simultaneous localization and mapping (SLAM). Asctec’s quadrotor Pelican is a powerful and flexible research UAS (unmanned aircraft system) which enables the development of new real-time on-board algorithms for SLAM as well as autonomous navigation. The relative UAS pose estimation for SLAM, usually based on low-cost sensors like inertial measurement units (IMU) and barometers, is known to be affected by high drift rates. In order to significantly reduce these effects, we incorporate additional independent pose estimation techniques using exteroceptive sensors. In this article we present first pose estimation results using a stereo camera setup as well as a laser range finder, individually. Even though these methods fail in few certain configurations we demonstrate their effectiveness and value for the reduction of IMU drift rates and give an outlook for further works towards SLAM.
In order to minimize the probability of foundation failure resulting from cyclic action on structures, researchers have developed various constitutive models to simulate the foundation response and soil interaction as a result of these complex cyclic loads. The efficiency and effectiveness of these model is majorly influenced by the cyclic constitutive parameters. Although a lot of research is being carried out on these relatively new models, little or no details exist in literature about the model based identification of the cyclic constitutive parameters. This could be attributed to the difficulties and complexities of the inverse modeling of such complex phenomena. A variety of optimization strategies are available for the solution of the sum of least-squares problems as usually done in the field of model calibration. However for the back analysis (calibration) of the soil response to oscillatory load functions, this paper gives insight into the model calibration challenges and also puts forward a method for the inverse modeling of cyclic loaded foundation response such that high quality solutions are obtained with minimum computational effort. Therefore model responses are produced which adequately describes what would otherwise be experienced in the laboratory or field.
Known as a sophisticated phenomenon in civil engineering problems, soil structure interaction has been under deep investigations in the field of Geotechnics. On the other hand, advent of powerful computers has led to development of numerous numerical methods to deal with this phenomenon, resulting in a wide variety of methods trying to simulate the behavior of the soil stratum. This survey studies two common approaches to model the soil’s behavior in a system consisting of a structure with two degrees of freedom, representing a two-storey frame structure made of steel, with the column resting on a pile embedded into sand in laboratory scale. The effect of soil simulation technique on the dynamic behavior of the structure is of major interest in the study. Utilized modeling approaches are the so-called Holistic method, and substitution of soil with respective impedance functions.
Gemäß dem Regelwerk für Betonstraßen muss für zweischichtige Betonfahrbahndecken derselbe Zement in Ober- und Unterbeton verwendet werden. Weiterhin ist die Anrechnung von Flugasche auf den w/z-Wert nicht gestattet. Durch eine flexiblere Handhabung der Bindemittel könnten sich Vorteile für die Betonbauweise ergeben. So könnte z.B. der stärker durch Frost beanspruchte Oberbeton mit CEM I hergestellt werden, während Zemente mit höheren Hüttensandgehalten nur im Unterbeton angewendet werden. Im Unterbeton könnten dann Gesteinskörnungen eingesetzt werden, die in einer herkömmlichen CEM I-Rezeptur als AKR-kritisch eingestuft würden.
Anhand von AKR-Performance-Prüfungen konnte die hohe Wirksamkeit hüttensandhaltiger Zemente sowie auch von Flugasche auf die AKR-Verminderung aufgezeigt werden. Schon mit einem CEM II/B-S wurden AKR-kritische Rezepturen in den unkritischen Bereich verschoben. Der Frost-Tausalz-Widerstand der Betone wurde bei hohen Gehalten an Hüttensand bzw. Hüttensand + Flugasche verringert, bewegte sich aber in jedem Fall noch im günstigen Bereich. Um eine Beeinträchtigung der baupraktischen Umsetzbarkeit zu vermeiden, sollte sich die Festigkeitsentwicklung von Ober- und Unterbeton im jungen Alter nicht zu stark unterscheiden. Modellberechnungen zur Festlegung einer Mindestfestigkeit für die frühe Belastung sind derzeit noch in Bearbeitung.
In der vorliegenden Studie wurde der Einfluss der Klinkerzusammensetzung sowie der Sulfatträgerart auf die Leistungsfähigkeit eines Spritzzementes untersucht. Um eine Untersulfatisierung im System mit einen Aluminiumsulfat / -hydroxid Beschleuniger zu vermeiden, sollte ein anhydritbasierter Sulfatträger eingesetzt werden. Dies führt zu einer besseren Festigkeitsentwicklung im jungen Alter.
The aim of this study was to investigate the optimization of the strength development of quaternary cements with 50 % clinker by a variation of the particle size distribution of the components GGBFS, fly ash and limestone powder.
By balancing the overall PSD of the cement by using unprocessed fly ash and coarse limestone powder in combination with a very fine GGBFS, the water demand of the resulting quaternary cements remained unaltered, while the compressive strength of the cements was increased significantly after 7d, 28 and 56d. As can be expected, the quaternary cement with 30 wt.% of the fine slag exhibited a stronger strength increase (about 18 % after 28 d) than the cements with only 20 wt.% slag (about 10% after 28d).
This work presents a concept of interactive machine learning in a human design process. An urban design problem is viewed as a multiple-criteria optimization problem. The outlined feature of an urban design problem is the dependence of a design goal on a context of the problem. We model the design goal as a randomized fitness measure that depends on the context. In terms of multiple-criteria decision analysis (MCDA), the defined measure corresponds to a subjective expected utility of a user. In the first stage of the proposed approach we let the algorithm explore a design space using clustering techniques. The second stage is an interactive design loop; the user makes a proposal, then the program optimizes it, gets the user’s feedback and returns back the control over the application interface.
It's not uncommon that analysis and simulation methods are used mainly to evaluate finished designs and to proof their quality. Whereas the potential of such methods is to lead or control a design process from the beginning on. Therefore, we introduce a design method that move away from a “what-if” forecasting philosophy and increase the focus on backcasting approaches. We use the power of computation by combining sophisticated methods to generate design with analysis methods to close the gap between analysis and synthesis of designs. For the development of a future-oriented computational design support we need to be aware of the human designer’s role. A productive combination of the excellence of human cognition with the power of modern computing technology is needed. We call this approach “cognitive design computing”. The computational part aim to mimic the way a designer’s brain works by combining state-of-the-art optimization and machine learning approaches with available simulation methods. The cognition part respects the complex nature of design problems by the provision of models for human-computation interaction. This means that a design problem is distributed between computer and designer. In the context of the conference slogan “back to command”, we ask how we may imagine the command over a cognitive design computing system. We expect that designers will need to let go control of some parts of the design process to machines, but in exchange they will get a new powerful command on complex computing processes. This means that designers have to explore the potentials of their role as commanders of partially automated design processes. In this contribution we describe an approach for the development of a future cognitive design computing system with the focus on urban design issues. The aim of this system is to enable an urban planner to treat a planning problem as a backcasting problem by defining what performance a design solution should achieve and to automatically query or generate a set of best possible solutions. This kind of computational planning process offers proof that the designer meets the original explicitly defined design requirements. A key way in which digital tools can support designers is by generating design proposals. Evolutionary multi-criteria optimization methods allow us to explore a multi-dimensional design space and provide a basis for the designer to evaluate contradicting requirements: a task urban planners are faced with frequently. We also reflect why designers will give more and more control to machines. Therefore, we investigate first approaches learn how designers use computational design support systems in combination with manual design strategies to deal with urban design problems by employing machine learning methods. By observing how designers work, it is possible to derive more complex artificial solution strategies that can help computers make better suggestions in the future.
In the Space Syntax community, the standard tool for computing all kinds of spatial graph network measures is depthmapX (Turner, 2004; Varoudis, 2012). The process of evaluating many design variants of networks is relatively complicated, since they need to be drawn in a separated CAD system, exported and imported in depthmapX via dxf file format. This procedure disables a continuous integration into a design process. Furthermore, the standalone character of depthmapX makes it impossible to use its network centrality calculation for optimization processes. To overcome this limitations, we present in this paper the first steps of experimenting with a Grasshopper component (reference omitted until final version) that can access the functions of depthmapX and integrate them into Grasshopper/Rhino3D. Here the component is implemented in a way that it can be used directly for an evolutionary algorithm (EA) implemented in a Python scripting component in Grasshopper
Hochschulwege 2015
(2017)
Die in diesem Tagungsband zusammengeführten Beiträge beschäftigen sich mit dem Spannungsfeld, das sich zwischen externen Förderprogrammen, Veränderungsprojekten und den Zielen, Strukturen und Bedingungen der jeweiligen Hochschule ergibt. In diesem Spannungsfeld kommt es unweigerlich zu Reibungen, da vorhandene Strukturen und Ziele in Konflikt mit neuen Vorhaben und Ideen geraten. Ein Teil der Projekte stellt allein durch ihr finanzielles Volumen und die daraus resultierende Wirkkraft die tradierten Verhältnisse zwischen Lehre, Forschung und den wissenschaftsstützenden Bereichen in Frage und teils auf den Kopf. Die leitenden Fragen der Tagung und der hier versammelten Beiträge waren daher: Wie bringen Hochschulen ihre individuellen Ziele mit denen der bundesweiten Programme oder länderspezfifischer Fördermaßnahmen überein? Wie gehen Hochschulen mit ihren Projekten um? Wie vollzieht sich Veränderung an den Hochschulen? Und schließlich: Was bleibt von den Impulsen, die Projekte setzen? Die in diesem Tagungsband versammelten Beiträge geben darauf erste, auf dem bisherigen Erfahrungswissen basierende Antworten. Sie setzen sich intensiv mit den Faktoren auseinander, die den Erfolg von Veränderungsprozessen und Projekten befördern oder behindern können und leiten daraus Empfehlungen für Gestaltungsprozesse an Hochschulen ab.
The high resource demand of the building sector clearly indicates the need to search for alternative, renewable and energy-efficient materials. This work presents paper-laminated sandwich elements with a core of corrugated paperboard that can serve as architectural components with a load-bearing capacity after a linear folding process. Conventional methods either use paper tubes or glued layers of honeycomb panels. In contrast, the folded components are extremely lightweight, provide the material strength exactly where it is statically required and offer many possibilities for design variants. After removing stripes of the paper lamination, the sandwich can be folded in a linear way at this position. Without the resistance of the missing paper, the sandwich core can be easily compressed. The final angle of the folding correlates with the width of the removed paper stripe. As such, this angle can be described by a simple geometric equation. The geometrical basis for the production of folded sandwich elements was established and many profile types were generated such as triangular, square or rectangular shapes. The method allows the easy planning and fast production of components that can be used in the construction sector. A triangle profile was used to create a load-bearing frame as supporting structure for an experimental building. This first permanent building completely made of corrugated cardboard was evaluated in a two-year test to confirm the efficiency of the developed components. In addition to the frame shown in this paper, large-scale sandwich elements with a core of folded components can be used to fabricate lightweight ceilings and large-scale sandwich components. The method enables the efficient production of linearly folded cardboard elements which can replace normal wooden components like beams, pillars or frames and bring a fully recycled material in the context of architectural construction.
Zur Erstellung von dekorativen Plastiken sollten Mörtel entwickelt werden, die eine hohe Biegezugfestigkeit aufweisen und eine breite Palette von Konsistenzen für verschiedene Anwendungsarten, wie Gießen, Spachteln oder Stampfen abdecken. Als Basis für die Rezepturen wurde ein niedrigviskoses Epoxidharzsystem gewählt, dessen Aminhärter einen Wasseranteil von 44 % beinhaltet. Dies ermöglichte es, durch Wasserzugabe verschiedene Viskositäten einzustellen. Um dieses Wasser in massiveren Bauteilen zu binden, wurde neben Sand auch Zement als Füllstoff eingesetzt.
Die erstellten Rezepturen zeigten nach 56 Tagen hohe Druckfestigkeiten von über 50 N/mm². Mit zunehmendem Epoxidharzgehalt ergaben sich zwar steigende Biegezugfestigkeiten, jedoch unter Laborlagerung auch größere Längenänderungen. Diese konnten durch den Einsatz eines PCE-Fließmittels, PVA-Kurzfasern und einer optimierten Sieblinie verringert werden. Das Fließmittel verlängerte die Erhärtungszeiten jedoch auf bis zu 1,5 Tage.
Zur Ermittlung der Dauerhaftigkeit des Materials wurde es für drei Wochen Temperaturen von -20 bis +60 °C, einer künstlichen Sonnenbestrahlung sowie künstlicher Beregnung ausgesetzt. Im Vergleich zur Laborlagerung ergab sich bei steigendem Epoxidharzanteil ein geringerer Schwund, während die Biegezugfestigkeit der Probeköper nur geringfügig abnahm.
Rasterelektronenmikroskopische Untersuchungen zeigten, dass auch bei geringeren Epoxidharzzusätzen Störungen der Zementhydratation auftraten. Weiterhin zeigen sich bei geringen Epoxidharzzusätzen in der Matrix kugelförmige Einschlüsse, die von dispergierten Epoxidharzpartikeln stammen.
30. Forum Bauinformatik
(2018)
Die Bauhaus-Universität Weimar ist seit langer Zeit mit dem Forum Bauinformatik eng verbunden. So wurde die Veranstaltung 1989 hier durch den Arbeitskreis Bauinformatik ins Leben gerufen und auch das 10. und 18. Forum Bauinformatik (1998 bzw. 2006) fand in Weimar statt. In diesem Jahr freuen wir uns daher besonders, das 30. Jubiläum an der Bauhaus-Universität Weimar ausrichten zu dürfen und viele interessierte Wissenschaftler und Wissenschaftlerinnen aus dem Bereich der Bauinformatik in Weimar willkommen zu heißen.
Das Forum Bauinformatik hat sich längst zu einem festen Bestandteil der Bauinformatik im deutschsprachigen Raum entwickelt. Dabei steht es traditionsgemäß unter dem Motto „von jungen Forschenden für junge Forschende“, wodurch insbesondere Nachwuchswissenschaftlerinnen und ‑wissenschaftlern die Möglichkeit geboten wird, ihre Forschungsarbeiten zu präsentieren, Problemstellungen fachspezifisch zu diskutieren und sich über den neuesten Stand der Forschung zu informieren. Zudem wird eine ausgezeichnete Gelegenheit geboten, in die wissenschaftliche Gemeinschaft im Bereich der Bauinformatik einzusteigen und Kontakte mit anderen Forschenden zu knüpfen.
In diesem Jahr erhielten wir 49 interessante und qualitativ hochwertige Beiträge vor allem in den Themenbereichen Simulation, Modellierung, Informationsverwaltung, Geoinformatik, Structural Health Monitoring, Visualisierung, Verkehrssimulation und Optimierung. Dafür möchten wir uns ganz besonders bei allen Autoren, Co-Autoren und Reviewern bedanken, die durch ihr Engagement das diesjährige Forum Bauinformatik erst möglich gemacht haben. Wir danken zudem Professor Große und Professor Díaz für die Unterstützung bei der Auswahl der Beiträge für die Best Paper Awards.
Ein herzliches Dankeschön geht an die Kollegen an der Professur Informatik im Bauwesen der Bauhaus-Universität Weimar für die organisatorische, technische und beratende Unterstützung während der Planung der Veranstaltung.
Components of structural glazing have to meet different requirements and resist various impacts, depending on the field of application. Within an international research project of the EU innovation program Horizon 2020, special glass panes with a fluid circulating in capillaries are developed exploiting solar energy. Major influences to this glazing are UV irradiation and the fluidic contact, effecting the mechanical and optical durability of the bonding material within the glass setup. Regarding to visual requirements, acrylate adhesives and EVA films are analyzed as possible bonding materials by destructive and non-destructive testing methods. Two types of specimen are presented for obtaining the mechanical behavior and the surface appearances of the bonding material.
Der vorliegende Beitrag beschreibt die Problematik bei der Prognose verkehrsbedingter Schadstoff-Immissionen. Im Mittelpunkt steht die Entwicklung und der Aufbau einer Simulationsumgebung zur Evaluation von umweltorientierten Verkehrsmanagement-Strategien. Die Simulationsumgebung wird über die drei Felder Verkehr, Emission, Immission entwickelt und findet zunächst Anwendung in der Evaluation verkehrlicher Maßnahmen für die Friedberger Landstraße in Frankfurt am Main.
Für den Frost-Tausalz-Angriff auf Beton existiert eine Reihe von Schadenstheorien. Drei aktuelle Theorien nehmen für sich in Anspruch, den Schadensmechanismus und insbesondere den Einfluss niedrig konzentrierter Tausalzlösungen auf den Schädigungsgrad gut abbilden zu können. Die Glue Spall-Theorie sowie die Cryogenic Suction-Theorie bieten plausible Ansätze. In Untersuchungen konnten einige Modellvorstellungen bestätigt werden, insbesondere der Prozess des kryogenen Saugens. Ob dieser Vorgang oder die mechanische Glue Spall-Belastung tatsächlich schadensauslösend sind, kann anhand der Untersuchungen jedoch noch nicht zweifelsfrei bestätigt oder ausgeschlossen werden. Die Brine Rejection-Theorie zeigt wichtige Prozesse auf, die für die Schädigung bei einem Frost-Tausalz-Angriff relevant sein können. Als alleinstehendes Modell ist es eher nicht geeignet.
Acoustic travel-time tomography (ATOM) determines the distribution of the temperature in a propagation medium by measuring the travel-time of acoustic signals between transmitters and receivers. To employ ATOM for indoor climate measurements, the impulse responses have been measured in the climate chamber lab of the Bauhaus-University Weimar and compared with the theoretical results of its image source model (ISM). A challenging task is distinguishing the reflections of interest in the reflectogram when the sound rays have similar travel-times. This paper presents a numerical method to address this problem by finding optimal positions of transmitter and receiver, since they have a direct impact on the distribution of travel times. These optimal positions have the minimum number of simultaneous arrival time within a threshold level. Moreover, for the tomographic reconstruction, when some of the voxels remain empty of sound-rays, it leads to inaccurate determination of the air temperature within those voxels. Based on the presented numerical method, the number of empty tomographic voxels are minimized to ensure the best sound-ray coverage of the room. Subsequently, a spatial temperature distribution is estimated by simultaneous iterative reconstruction technique (SIRT). The experimental set-up in the climate chamber verifies the simulation results.