Refine
Has Fulltext
- yes (14) (remove)
Document Type
- Conference Proceeding (5)
- Article (4)
- Doctoral Thesis (2)
- Working Paper (2)
- Master's Thesis (1)
Institute
Keywords
- Visualisierung (14) (remove)
Die Planung komplexer Bauwerke erfolgt zunehmend mit rechnergestützten Planungswerkzeugen, die den Export von Bauwerksinformationen im STEP-Format auf Grundlage der Industry Foundation Classes (IFC) ermöglichen. Durch die Verfügbarkeit dieser Schnittstelle ist es möglich, Bauwerksinformationen für eine weiterführende applikationsübergreifende Verarbeitung bereitzustellen. Ein großer Teil der bereitgestellten Informationen bezieht sich auf die geometrische Beschreibung der einzelnen Bauteile. Um den am Bauprozess Beteiligten eine optimale Auswertung und Analyse der Bauwerksinformationen zu ermöglichen, ist deren Visualisierung unumgänglich. Das IFC-Modell stellt diese Daten mit Hilfe verschiedener Geometriemodelle bereit. Der vorliegende Beitrag beschreibt die Visualisierung von IFC-Objekten mittels Java3D. Er beschränkt sich dabei auf die Darstellung von Objekten, deren Geometrie mittels Boundary Representation (Brep) oder Surface-Model-Repräsentation beschrieben wird.
The cost of keeping large area urban computer aided architectural design (CAAD) models up to date justifies wider use and access. This paper reviews the potential for collaborative groupwork creation and maintenance of such models and suggests an approach to data entry, data management and generation of appropriate levels of detail models from a Geographic Information System (GIS). Staff at the University of the West of England (UWE) modelled a large area of Bristol to demonstrate millennium landmark proposals. It became swiftly apparent that continued amendment of the model to keep it an accurate reflection of changes on the ground was a major data management problem. Piecing in new CAAD models received from Architectural Practices to visualise them in context as part of the planning negotiation process has often taken staff several days of work for each instance. The model is so complex and proprietary that Bristol City operates a specialist visualisation bureau service. UWE later modelled the environs of the Tower of London to support bids for funding and to provide the context for judging the visual impact of iterative design development. Further research continued to develop more effective approaches to. Data conversion and amalgamation from all the diverse sources was the major impediment to effective group working to create the models. It became apparent that a GIS would assist retrieving all the appropriate data that described the part of the model under creation. It was possible to predict that management of many historic part models stepping back through time, allowing for different expert interpretations to co-exist would be in itself a major task requiring a spatial database/GIS. UWE started afresh from the original source data, to explore the collaborative use of GIS and Virtual Reality Modelling Language (VRML) to integrate models and interventions from various sources and to generate an overall navigable interactive whole. Current exploration of the combination of event driven behaviours and Structured Query Language is seeking to define how appropriately to modify objects in the VRML model on demand. This is beginning to realise the potential for use of this process for: asynchronous group modelling on the lines of a collaborative virtual design studio; historic building maintenance management; visitor management; interpretation of historic sites to visitors and public planning information.
Bestimmungen und Anforderungen an den Entwurf von Baustelleneinrichtungen (BE), Kraneinsatzplan als Bestandteil der BE, planungstechnische Aspekte, Untersuchung von CAD-Anwendungen für die Planung von Baustelleneinrichtungen, Entwicklung eines Kraneinsatzplaners, Sicherheitsaspekte bei der Planung von Baukraneinsätzen. Es zeigte sich, dass gerade die Forderung der Betrachtung kausaler und räumlicher Abhängigkeiten mit den in der Praxis angewandten Planungswerkzeugen nicht oder nur eingeschränkt realisierbar ist. Mit dem Programm >EasyCrane TK< wird eine Möglichkeit aufgezeigt, die Erstellung von Kraneinsatzplänen effizienter und für die Umsetzung auf der Baustelle sicherer zu gestalten.
Personalized ventilation (PV) is a mean of delivering conditioned outdoor air into the breathing zone of the occupants. This study aims to qualitatively investigate the personalized flows using two methods of visualization: (1) schlieren imaging using a large schlieren mirror and (2) thermography using an infrared camera. While the schlieren imaging was used to render the velocity and mass transport of the supplied flow, thermography was implemented to visualize the air temperature distribution induced by the PV. Both studies were conducted using a thermal manikin to simulate an occupant facing a PV outlet. As a reference, the flow supplied by an axial fan and a cased axial fan was visualized with the schlieren system as well and compared to the flow supplied by PV. Schlieren visualization results indicate that the steady, low-turbulence flow supplied by PV was able to penetrate the thermal convective boundary layer encasing the manikin's body, providing clean air for inhalation. Contrarily, the axial fan diffused the supplied air over a large target area with high turbulence intensity; it only disturbed the convective boundary layer rather than destroying it. The cased fan supplied a flow with a reduced target area which allowed supplying more air into the breathing zone compared to the fan. The results of thermography visualization showed that the supplied cool air from PV penetrated the corona-shaped thermal boundary layer. Furthermore, the supplied air cooled the surface temperature of the face, which indicates the large impact of PV on local thermal sensation and comfort.
Der Bedarf an leistungsfähigen Hochgeschwindigkeits-Glasfasernetzen ist in den letzten Jahren, insbesondere aufgrund der zunehmenden Nutzung von Internet-basierten Diensten, rapide gestiegen. Eine umfassende Planung von neu zu errichtenden Glasfasernetzen im Sinne eines kostengünstigen Breitbandausbaus ist jedoch häufig mit hohem Aufwand verbunden. Die Auswahl möglicher Kabelwege und die anschließende Kalkulation der Installationskosten werden heute in der Regel durch computerbasierte Verfahren unterstützt, wobei allerdings die Installationspläne und die Installationskosten getrennt voneinander dargestellt werden, was wiederum die computergestützte Planung sowie weitere Optimierungsansätze erschwert. Dieses Arbeitspapier beschreibt ein Konzept für ein modulares Softwaresystem zur computergestützten Planung, Kostenkalkulation und Visualisierung von Glasfasernetzen, das eine integrierte Darstellung von Installationsplänen und Installationskosten ermöglicht. Anstelle der herkömmlichen Darstellung von Installationsplänen, die in der Regel alle geplanten Kabelwege einfarbig auf einer Landkarte visualisiert, wird ein Farbschema zur Anzeige der Installationskosten in Installationsplänen eingesetzt. Das Konzept wird prototypisch implementiert und durch ein Anwendungsbeispiel, das die Planung eines Glasfasernetzes innerhalb eines Siedlungsgebietes behandelt, validiert. Die integrierte, farbige Darstellung der Installationskosten in Installationsplänen ermöglicht eine effiziente Identifikation der kostenintensiven Bauabschnitte und befördert kostenoptimierte Planungsansätze. Die intuitive Visualisierung vereinfacht somit die akkurate und kostenoptimierte Planung von Glasfasernetzen.
Der inhaltlichen Qualitätssicherung von Bauwerksinformationsmodellen (BIM) kommt im Zuge einer stetig wachsenden Nutzung der verwendeten BIM für unterschiedliche Anwen-dungsfälle eine große Bedeutung zu. Diese ist für jede am Datenaustausch beteiligte Software dem Projektziel entsprechend durchzuführen. Mit den Industry Foundation Classes (IFC) steht ein etabliertes Format für die Beschreibung und den Austausch eines solchen Modells zur Verfügung. Für den Prozess der Qualitätssicherung wird eine serverbasierte Testumgebung Bestandteil des neuen Zertifizierungsverfahrens der IFC sein. Zu diesem Zweck wurde durch das „iabi - Institut für angewandte Bauinformatik” in Zusammenarbeit mit „buildingSMART e.V.“ (http://www.buildingsmart.de) ein Global Testing Documentation Server (GTDS) implementiert. Der GTDS ist eine, auf einer Datenbank basierte, Web-Applikation, die folgende Intentionen verfolgt:
• Bereitstellung eines Werkzeugs für das qualitative Testen IFC-basierter Modelle
• Unterstützung der Kommunikation zwischen IFC Entwicklern und Anwendern
• Dokumentation der Qualität von IFC-basierten Softwareanwendungen
• Bereitstellung einer Plattform für die Zertifizierung von IFC Anwendungen
Gegenstand der Arbeit ist die Planung und exemplarische Umsetzung eines Werkzeugs zur interaktiven Visualisierung von Qualitätsdefiziten, die vom GTDS im Modell erkannt wurden. Die exemplarische Umsetzung soll dabei aufbauend auf den OPEN IFC TOOLS (http://www.openifctools.org) erfolgen.
In der Dissertation werden die Unsicherheiten von Baugrundkenngrößen für die Erstellung von geologischen Halbraummodellen auf der Grundlage geostatistischer Methoden entgegen dem bislang üblichen Herangehen mit einbezogen. Infolge der unsicheren Kenngrößen ist das abgeleitete Halbraummodell aus unsicheren geologischen Homogenbereichen zusammengesetzt. In einem probabilistischen Sicherheitsnachweis werden die unsicheren Parameter der Grenzzustandsgleichung und das unsichere geologische Modell gemeinsam betrachtet. Die geostatistischen Methoden sind unterteilt in die experimentelle und theoretische Variographie sowie das Kriging. Die Berücksichtigung von unsicheren Eingangskenngrößen für die geologische Modellbildung führt zu Variogrammfunktionen mit unsicheren Parametern. Bis zum experimentellen Variogramm sind die Variogrammparameter und deren Unsicherheit analytisch nachvollziehbar beziehungsweise abschätzbar. In den weiteren Teilschritten der geostatistischen Modellbildung ist der Einfluss unsicherer Kenngrößen auf Teilergebnisse nur numerisch nachzuvollziehen. Für die umfangreichen Simulationen stand keine Software zur Verfügung. Als Teilleistung dieser Arbeit wurde hierfür die eigenständige Anwendung „GeoStat“ erstellt. Sie ermöglicht die Berechnung und Auswertung der Fortpflanzung von Unsicherheiten auf numerischem Weg in beliebigen Teilschritten bis hin zur geologischen Modellbildung. Mit dem Übergang vom experimentellen zum theoretischen Variogramm sind wesentliche Zusammenhänge zwischen der Unsicherheit der Kenngrößen und der Unsicherheiten der Parameter für das sphärische, das exponentielle und das Gauß’sche Modell mit den Ergebnissen aus GeoStat ableitbar. Der Schwellenwert dieser Funktionen ist proportional zur relativen Kenngrößenunsicherheit. Eine Abschätzung der oberen Schranke des Schwellenwertes und dessen Unsicherheit wird angegeben. Die Reichweite ist ein charakteristischer Kennwert des Untersuchungsgebietes. Die Parameterunsicherheiten der Variogrammfunktionen wirken sich in Relation zur Kenngrößenunsicherheit nur gering auf den Prognosewert am unbeprobten Ort infolge des Kriging aus. Die Varianz des Prognosewertes ist geringer als die Kenngrößenvarianzen, aber nicht vernachlässigbar klein. Es ist grundsätzlich zu unterscheiden, ob die Kenngrößenvarianzen ausschließlich durch unsichere Parameter der theoretischen Variogrammfunktion repräsentiert oder deren Eigenvarianzen zusätzlich im Kriging berücksichtigt werden. Mit der alleinigen Berücksichtigung der unsicheren theoretischen Variogrammparameter wird die Standardabweichung der Krigingprognose unterschätzt. Sie haben maßgeblichen Einfluss auf die Krigingvarianz als Modellvarianz und deren Standardabweichung. Mit der Einbeziehung der Kenngrößenunsicherheiten kann die Standardabweichung der Prognose realistischer simuliert werden. Sie hat keinen direkten Einfluss auf die Krigingvarianz. Der abgeleitete Unsicherheitsplot, ein Resultat dieser Arbeit, kombiniert die Modellunsicherheit des Krigings und die Varianz des Prognosewertes im unbeprobten Untersuchungsgebiet auf der Grundlage des Varianzenfortpflanzungsgesetzes. Für geotechnische Sicherheitsnachweise ist neben der Informationsdichte auch die Optimierung des geologischen Modells wesentlich. Dieses ist vom auszuwertenden Grenzzustand auf der Grundlage eines Sicherheitsnachweises abhängig, so dass vor der geostatistischen Baugrundmodellierung die Sensitivität der in den Grenzzustand eingehenden Kenngrößen zu untersuchen ist. Es hat sich gezeigt, dass die Erhöhung der Datengesamtheit für die geologische Modellbildung nur dann sinnvoll ist, wenn parallel die Unsicherheit der relevanten Kenngrößen im Sicherheitsnachweis innerhalb der unsicheren Homogenbereiche reduziert wird. Für den Referenzstandort führen äquivalent zur Berücksichtigung der unsicheren Steifemoduln die unsicheren Halbraummodelle zur erheblichen Zunahme der erforderlichen Fundamentabmessungen. Die Unsicherheit der Steifemoduln war maßgebender als die Unsicherheiten des Halbraummodells, obwohl die Datenbasis für die geostatistische Modellierung gering war. Bisher werden in probabilistischen Sicherheitsnachweisen zwar unsichere Kenngrößen, jedoch deterministische geologische Modelle betrachtet. Die unsicheren Kenngrößen innerhalb der Homogenbereiche eines geologischen Modells haben im aufgezeigten Sicherheitsnachweis zwar den maßgebenden Einfluss, doch sind die Unsicherheiten im geologischen Modell nicht zu vernachlässigen. Wege und Grenzen der Berücksichtigung dieses kombinierten Einflusses werden mit dieser Arbeit untersucht und aufgezeigt. Das Anwendungsbeispiel zeigt, dass die optimale geologische Modellbildung spezifisch für den Sicherheitsnachweis vorzunehmen ist. Werden die Unsicherheiten der Kenngrößen innerhalb der Homogenbereiche und unsicheren geologischen Modelle berücksichtigt, wird ein schärferes Abbild der Realität erreicht.
Die geometrische Modellierung hat in den Ingenieurwissenschaften eine große Bedeutung erlangt. Die Visualisierung von zwei- oder dreidimensionalen Problemstellungen ist aus heutigen Anwendungen nicht mehr wegzudenken. Zunehmend rücken Aufgabenstellungen aus dem Bereich der geometrischen Modellierung in den Vordergrund, die über die etablierten Dimensionen 1-3 hinausgehen und die nicht mehr rein geometrischer Natur sind. Hierzu zählen Aufgabenstellungen aus den Bereichen numerische Simulation, Parameteridentifikation und Strukturanalyse. Auf diese nicht-geometrischen Aufgabenstellungen sollen geometrische Verfahren, wie z.B. Triangulation, konvexe Hülle, geometrischer Schnitt und Interpolation angewendet werden. Hierzu werden diese Algorithmen, die alle auf der klassischen Geometrie des euklidischen Raumes beruhen, auf ihre Übertragbarkeit hin analysiert und überarbeitet. Am Beispiel einer Parameteridentifikation wird eine systematische Vorgehensweise vorgestellt, die es ermöglicht, trotz weniger Versuchsrechnungen den Bereich der in Frage kommenden Parameter umfassend zu beschreiben. Dies ermöglicht ein besseres Verständnis der Zusammenhänge der Parameter untereinander. Häufig existieren mehr als eine Parameterkombination, so daß diese eine Isolinie formen, die ihrerseits unendlich viele Lösungen des gestellten Problemes im Untersuchungsgebiet beschreibt.
In this paper we propose a novel and efficient rasterization-based approach for direct rendering of isosurfaces. Our method exploits the capabilities of task and mesh shader pipelines to identify subvolumes containing potentially visible isosurface geometry, and to efficiently extract primitives which are consumed on the fly by the rasterizer. As a result, our approach requires little preprocessing and negligible additional memory. Direct isosurface rasterization is competitive in terms of rendering performance when compared with ray-marching-based approaches, and significantly outperforms them for increasing resolution in most situations. Since our approach is entirely rasterization based, it affords straightforward integration into existing rendering pipelines, while allowing the use of modern graphics hardware features, such as multi-view stereo for efficient rendering of stereoscopic image pairs for geometry-bound applications. Direct isosurface rasterization is suitable for applications where isosurface geometry is highly variable, such as interactive analysis scenarios for static and dynamic data sets that require frequent isovalue adjustment.