TY - RPRT A1 - Bimber, Oliver A1 - Iwai, Daisuke T1 - Superimposing Dynamic Range N2 - We present a simple and cost-efficient way of extending contrast, perceived tonal resolution, and the color space of static hardcopy images, beyond the capabilities of hardcopy devices or low-dynamic range displays alone. A calibrated projector-camera system is applied for automatic registration, scanning and superimposition of hardcopies. We explain how high-dynamic range content can be split for linear devices with different capabilities, how luminance quantization can be optimized with respect to the non-linear response of the human visual system as well as for the discrete nature of the applied modulation devices; and how inverse tone-mapping can be adapted in case only untreated hardcopies and softcopies (such as regular photographs) are available. We believe that our approach has the potential to complement hardcopy-based technologies, such as X-ray prints for filmless imaging, in domains that operate with high quality static image content, like radiology and other medical fields, or astronomy. KW - Bildverarbeitung KW - CGI KW - Computergraphik KW - Kontrast KW - Projektor-Kamera Systeme KW - Hoher Dynamikumfang KW - Contrast KW - Projector-Camera Systems KW - High Dynamic Range Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20080422-13585 ER - TY - RPRT A1 - Bimber, Oliver T1 - Superimposing Dynamic Range N2 - Replacing a uniform illumination by a high-frequent illumination enhances the contrast of observed and captured images. We modulate spatially and temporally multiplexed (projected) light with reflective or transmissive matter to achieve high dynamic range visualizations of radiological images on printed paper or ePaper, and to boost the optical contrast of images viewed or imaged with light microscopes. KW - Bildverarbeitung KW - CGI KW - Computergraphik KW - Kontrast KW - Projektor-Kamera Systeme KW - Hoher Dynamikumfang KW - Mikroskopie KW - Contrast KW - Projector-Camera Systems KW - High Dynamic Range KW - Microscopy Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20090303-14662 ER - TY - JOUR A1 - Brombach, Benjamin A1 - Bruns, Erich A1 - Bimber, Oliver T1 - Subobject Detection through Spatial Relationships on Mobile Phones N2 - We present a novel image classification technique for detecting multiple objects (called subobjects) in a single image. In addition to image classifiers, we apply spatial relationships among the subobjects to verify and to predict locations of detected and undetected subobjects, respectively. By continuously refining the spatial relationships throughout the detection process, even locations of completely occluded exhibits can be determined. Finally, all detected subobjects are labeled and the user can select the object of interest for retrieving corresponding multimedia information. This approach is applied in the context of PhoneGuide, an adaptive museum guidance system for camera-equipped mobile phones. We show that the recognition of subobjects using spatial relationships is up to 68% faster than related approaches without spatial relationships. Results of a field experiment in a local museum illustrate that unexperienced users reach an average recognition rate for subobjects of 85.6% under realistic conditions. KW - Objekterkennung KW - Smartphone KW - Subobjekterkennung KW - Räumliche Beziehungen KW - Neuronales Netz KW - Museumsführer KW - Subobject Detection KW - Spatial Relationships KW - Neural Networks KW - Museum Guidance Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20081007-14296 ER - TY - RPRT A1 - Gross, Tom A1 - Oemig, Christoph T1 - Presence, Privacy, and PRIMIFaces: Towards Selective Information Disclosure in Instant Messaging N2 - Efficient distant cooperation often requires spontaneous ad-hoc social interaction, which is only possible with adequate information on the prospective communication partner. This often requires disclosing and sharing personal information via tools such as instant messaging systems and can conflict with the users’ wishes for privacy. In this paper we present an initial study investigating this trade-off and discuss implications for the design of instant messaging systems. We present the functionality and design of the PRIMIFaces instant messaging prototype supporting flexible identity management and selective information disclosure. KW - Angewandte Informatik KW - Awareness KW - Gruppengewahrsein KW - Privatsphäre KW - Reziprozität KW - Ubiquitous Computing KW - Awareness KW - Group Awareness KW - Privacy KW - Reciprocity KW - Ubiquitous Computing Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20080314-13452 ER - TY - JOUR A1 - Bruns, Erich A1 - Bimber, Oliver T1 - Phone-to-Phone Communication for Adaptive Image Classification N2 - In this paper, we present a novel technique for adapting local image classifiers that are applied for object recognition on mobile phones through ad-hoc network communication between the devices. By continuously accumulating and exchanging collected user feedback among devices that are located within signal range, we show that our approach improves the overall classification rate and adapts to dynamic changes quickly. This technique is applied in the context of PhoneGuide – a mobile phone based museum guidance framework that combines pervasive tracking and local object recognition for identifying a large number of objects in uncontrolled museum environments. KW - Peer-to-Peer-Netz KW - Bilderkennung KW - Museumsführer KW - Ad-hoc-Netz KW - Phone-to-phone communication KW - adaptive image classification KW - mobile ad-hoc networks KW - museum guidance system Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20080722-13685 ER - TY - THES A1 - Springer, Jan P. T1 - Multi-Frame Rate Rendering N2 - Multi-frame rate rendering is a parallel rendering technique that renders interactive parts of a scene on one graphics card while the rest of the scene is rendered asynchronously on a second graphics card. The resulting color and depth images of both render processes are composited, by optical superposition or digital composition, and displayed. The results of a user study confirm that multi-frame rate rendering can significantly improve the interaction performance. Multi-frame rate rendering is naturally implemented on a graphics cluster. With the recent availability of multiple graphics cards in standalone systems the method can also be implemented on a single computer system where memory bandwidth is much higher compared to off-the-shelf networking technology. This decreases overall latency and further improves interactivity. Multi-frame rate rendering was also investigated on a single graphics processor by interleaving the rendering streams for the interactive elements and the rest of the scene. This approach enables the use of multi-frame rate rendering on low-end graphics systems such as laptops, mobile phones, and PDAs. Advanced multi-frame rate rendering techniques reduce the limitations of the basic approach. The interactive manipulation of light sources and their parameters affects the entire scene. A multi-GPU deferred shading method is presented that splits the rendering task into a rasterization and lighting pass and assigns the passes to the appropriate image generators such that light manipulations at high frame rates become possible. A parallel volume rendering technique allows the manipulation of objects inside a translucent volume at high frame rates. This approach is useful for example in medical applications, where small probes need to be positioned inside a computed-tomography image. Due to the asynchronous nature of multi-frame rate rendering artifacts may occur during migration of objects from the slow to the fast graphics card, and vice versa. Proper state management allows to almost completely avoid these artifacts. Multi-frame rate rendering significantly improves the interactive manipulation of objects and lighting effects. This leads to a considerable increase of the size for 3D scenes that can be manipulated compared to conventional methods. N2 - Multi-Frame Rate Rendering ist eine parallele Rendertechnik, die interaktive Teile einer Szene auf einer separaten Graphikkarte berechnet. Die Abbildung des Rests der Szene erfolgt asynchron auf einer anderen Graphikkarte. Die resultierenden Farb- und Tiefenbilder beider Darstellungsprozesse werden mittels optischer Überlagerung oder digitaler Komposition kombiniert und angezeigt. Die Ergebnisse einer Nutzerstudie zeigen, daß Multi-Frame Rate Rendering die Interaktion für große Szenen deutlich beschleunigt. Multi-Frame Rate Rendering ist üblicherweise auf einem Graphikcluster zu implementieren. Mit der Verfügbarkeit mehrerer Graphikkarten für Einzelsysteme kann Multi-Frame Rate Rendering auch für diese realisiert werden. Dies ist von Vorteil, da die Speicherbandbreite um ein Vielfaches höher ist als mit üblichen Netzwerktechnologien. Dadurch verringern sich Latenzen, was zu verbesserter Interaktivität führt. Multi-Frame Rate Rendering wurde auch auf Systemen mit einer Graphikkarte untersucht. Die Bildberechnung für den Rest der Szene muss dazu in kleine Portionen aufgeteilt werden. Die Darstellung erfolgt dann alternierend zu den interaktiven Elementen über mehrere Bilder verteilt. Dieser Ansatz erlaubt die Benutzung von Multi-Frame Rate Rendering auf einfachen Graphiksystemen wie Laptops, Mobiltelefonen and PDAs. Fortgeschrittene Multi-Frame Rate Rendering Techniken erweitern die Anwendbarkeit des Ansatzes erheblich. Die interaktive Manipulation von Lichtquellen beeinflußt die ganze Szene. Um diese Art der Interaktion zu unterstützen, wurde eine Multi-GPU Deferred Shading Methode entwickelt. Der Darstellungsvorgang wird dazu in einen Rasterisierungs- und Beleuchtungsschritt zerlegt, die parallel auf den entsprechenden Grafikkarten erfolgen können. Dadurch kann die Beleuchtung mit hohen Bildwiederholraten unabhängig von der geometrischen Komplexität der Szene erfolgen. Außerdem wurde eine parallele Darstellungstechnik für die interaktive Manipulation von Objekten in hochaufgelösten Volumendaten entwickelt. Dadurch lassen sich zum Beispiel virtuelle Instrumente in hochqualitativ dargestellten Computertomographieaufnahmen interaktiv positionieren. Aufgrund der inhärenten Asynchronität der beiden Darstellungsprozesse des Multi-Frame Rate Rendering Ansatzes können Artifakte während der Objektmigration zwischen den Graphikkarten auftreten. Eine intelligente Zustandsverwaltung in Kombination mit Prediktionstechniken kann diese Artifakte fast gänzlich verhindern, so dass Benutzer diese im allgemeinen nicht bemerken. Multi-Frame Rate Rendering beschleunigt die interaktive Manipulation von Objekten und Beleuchtungseffekten deutlich. Dadurch können deutlich umfangreichere virtuelle Szenarien bearbeitet werden als mit konventionellen Methoden. T2 - Multi-Frame Rate Rendering KW - Virtuelle Realität KW - Multi-Frame Rate Rendering KW - Multi-Frame Rate Composition KW - Interaction Fidelity KW - Visual Quality KW - Parallel Rendering Methods Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20081127-14395 ER - TY - THES A1 - Jödick, Friederike M. T1 - Gestaltungsrichtlinien für die benutzerfreundliche Präsentation von situativen Awarenessinformationen im Chat-basierten Rollenspiel T1 - Design Principles for Presenting Situative Awareness Information User Friendly in a Chat-based Roleplay Tool N2 - Im Rahmen der Arbeit wird untersucht, welche Awarenessinformationen in kooperativen Situation benötigt werden. Herangezogen wird dazu das Denver Modell von Salvador et al., das fünf Dimensionen bereit stellt, anhand derer jedwede kooperative Situation klassifiziert werden kann: Abhängigkeit, Zeit, Gruppengröße, Ort und Timing. Bei der untersuchten Situation handelt es sich um eine eng gekoppelte, synchrone, örtlich verteilte geplante Kooperationen in einer Kleingruppe. Als konkrete Ausprägung der so bezeichneten Modellinstanz wird das Chat-basierte Rollenspiel betrachtet. In der Arbeit wird untersucht, welche Awarenessinformationen in einer so charakterisierten Situation benötigt werden und wie diese Awarenessinformationen benutzerfreundlich dargestellt werden können, so dass sie den Benutzer dabei unterstützen, sein kooperatives Ziel bzw. seine Teilziele zu erreichen. Dazu wurde eine Analyse des situativen Bedarfs durchgeführt und tragende Awarenessinformationssäulen identifiziert. Um zu Richtlinien zur Darstellung dieser benötigten Awarenessinformationen zu gelangen, wurden Annahmen aufgestellt, zur Überprüfung eine Studie konzipiert und mit drei Designvarianten durchgeführt. Aus der Datenanalyse wurden Schlussfolgerungen gezogen. Für den erstellten Katalog mit Gestaltungsrichtlinien wurden neben diesen Schlussfolgerungen auch Normen und andere Empirie (Vorerfahrung, Literatur) berücksichtigt. Die eingesetzte Evaluationsform hat sich in der Studie bewährt und sie kann für zukünftige Studien verwendet werden. Auch die Anpassung klassischer Usability-Kriterien für die Präsentation von Awarenessinformationen hat sich bewährt. Durch die Analyse des spezifischen Bedarfs in einer kooperativen Situation wird gewährleistet, dass die Benutzer die Unterstützung erhalten, die erforderlich ist, um die Aufgabe effektiv und effizient bearbeiten zu können, ohne dabei mit unnötigen Informationen überlastet zu werden. Durch Bereitstellung empirisch belegter und theoretisch fundierter Gestaltungsrichtlinien schafft diese Arbeit eine Basis für die zukünftige Entwicklung von Groupwareanwendungen, insbesondere solcher, die Werkzeuge für die Computer-vermittelte, synchrone, eng gekoppelte, geplante Kooperationen in Kleingruppen bereitstellen. Die Arbeit liefert wichtige Erkenntnisse, wie Awarenessinformationen dargestellt werden sollen, d.h. in welcher Platzierung bzw. Gruppierung und in welcher Form, so dass der Benutzer alle wesentlichen Awarenessinformationen schnell entdecken und interpretieren kann, ohne dabei überfordert oder von der Primäraufgabe abgelenkt zu werden. N2 - In this thesis, the results of a usability study on the presentation of awareness information in synchronous collaboration situations are reported with respect to grouping, placement on the screen, and form. A collaborative tool was modified, RolePlay, only varying how awareness information is presented. The findings indicate that functional-oriented grouping is more usable than person-oriented. Also, dynamic awareness information for coordinating current activities needs to be presented in the user’s focus, while static in the periphery. Graphical presentation enhances the tool. Design principles on type and presentation of awareness information were established. These design principles can guide both the development process of cooperative applications and evaluation of existing groupware. KW - Benutzerfreundlichkeit KW - Gruppenbewusstsein KW - Computer Supported Cooperative Work KW - Computervermitteltes Arbeiten KW - Computervermitteltes Lernen KW - Gestaltungsrichtlinien KW - Computer Supported Cooperative Learning KW - Usability KW - Awareness KW - Human-Computer-Interaction Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20090106-14582 ER - TY - RPRT A1 - Gross, Tom A1 - Beckmann, Christoph T1 - CoLocScribe: A Media Space for Information Disclosure in Storytelling N2 - Digital storytelling of remote social interaction, where the situation of a remote group distributed over two locations is captured and a story is generated for later retrieval, can provide valuable insight into the structure and processes in a group. Yet, capturing these situations is a challenge—both from a technical perspective, and from a social perspective. In this paper we present CoLocScribe: a concept and prototype of an advanced media space featuring ubiquitous computing technology for capturing remote social interaction as well as a study of its use providing valuable feedback for the captured persons as well as input for the authors. KW - Angewandte Informatik KW - Ubiquitous Computing KW - Computer-Supported Cooperative Work KW - Media Space KW - Ubiquitous Computing KW - Computer-Supported Cooperative Work KW - Media Space Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20081103-14361 ER - TY - RPRT A1 - Gross, Tom A1 - Schirmer, Maximilian T1 - CollaborationBus Aqua: An Editor for Storytelling in Mixed Reality Settings N2 - Capturing the interaction of users in a room based on real-world and electronic sensors provides valuable input for their interactive stories. However, in such complex scenarios there is a gap between the huge amount of rather fine-grained data that is captured and the story summarising and representing the most significant aspects of the interaction. In this paper we present the CollaborationBus Aqua editor that provides an easy to use graphical editor for capturing, authoring, and sharing stories based on mixed-reality scenarios. KW - Angewandte Informatik KW - Ubiquitous Computing KW - Computer-Supported Cooperative Work KW - Editor KW - Konfiguration KW - Ubiquitous Computing KW - Computer-Supported Cooperative Work KW - Editor KW - configuration Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20081103-14359 ER - TY - RPRT A1 - Grosse, Max A1 - Bimber, Oliver T1 - Coded Aperture Projection N2 - In computer vision, optical defocus is often described as convolution with a filter kernel that corresponds to an image of the aperture being used by the imaging device. The degree of defocus correlates to the scale of the kernel. Convolving an image with the inverse aperture kernel will digitally sharpen the image and consequently compensate optical defocus. This is referred to as deconvolution or inverse filtering. In frequency domain, the reciprocal of the filter kernel is its inverse, and deconvolution reduces to a division. Low magnitudes in the Fourier transform of the aperture image, however, lead to intensity values in spatial domain that exceed the displayable range. Therefore, the corresponding frequencies are not considered, which then results in visible ringing artifacts in the final projection. This is the main limitation of previous approaches, since in frequency domain the Gaussian PSF of spherical apertures does contain a large fraction of low Fourier magnitudes. Applying only small kernel scales will reduce the number of low Fourier magnitudes (and consequently the ringing artifacts) -- but will also lead only to minor focus improvements. To overcome this problem, we apply a coded aperture whose Fourier transform has less low magnitudes initially. Consequently, more frequencies are retained and more image details are reconstructed. KW - Association for Computing Machinery / Special Interest Group on Graphics KW - CGI KW - Projektion KW - Blende Y1 - 2008 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20080227-13020 ER -