Refine
Document Type
- Master's Thesis (46)
- Part of a Book (17)
- Conference Proceeding (12)
- Doctoral Thesis (12)
- Article (9)
- Diploma Thesis (4)
- Report (3)
- Book (2)
- Preprint (1)
Institute
- Professur Baubetrieb und Bauverfahren (21)
- Professur Medienphilosophie (15)
- Professur Grundbau (8)
- Institut für Strukturmechanik (ISM) (6)
- Professur Verkehrsplanung und Verkehrstechnik (6)
- Professur Baumechanik (5)
- Professur Bodenmechanik (5)
- Professur Stahlbau (5)
- Professur Geschichte und Theorie künstlicher Welten (4)
- Professur Siedlungswasserwirtschaft (4)
Keywords
- 2005 (16)
- Medien (16)
- Archiv für Mediengeschichte (15)
- Geisteswissenschaften (15)
- Kulturphilosophie (14)
- Arbeitsschutz (13)
- Baustelle (11)
- Angewandte Mathematik (6)
- Baubetriebslehre (6)
- Strukturmechanik (6)
Year of publication
- 2005 (106) (remove)
Zur Tragwerksanalyse bzw. zu Tragfähigkeits- und Bemessungsaufgaben dienen Betrachtungen an ausgewählten Querschnitten der Tragelemente. Besonders interessieren Normalspannungs- und Dehnungsverteilungen sowie Grenzbeanspruchungsniveaus und Grenzkapazitäten am Querschnitt. Die statische Wirksamkeit von Verbundquerschnitten basiert auf Verbundwirkung zwischen Querschnittsanteilen unterschiedlicher Materialeigenschaften (z.B. Verbundbau) oder unterschiedlicher Zeitpunkte ihrer statischen Mitwirkung (z.B. nachträgliche Querschnittsergänzungen). Hierbei kommt es häufig zu Fehlinterpretationen des prinzipiellen Tragverhaltens. In der vorliegenden Arbeit werden numerische Berechnungsmodelle zur Querschnittsanalyse vorgestellt und das Tabellenkalkulationsprogramm MS EXCEL zur Lösung der iterativen Berechnungsalgorithmen genutzt. Betrachtet werden Querschnitte üblicher Konstruktionen des Massiv-, Stahl- und Verbundbaus (Baustahl-Beton) unter ein- oder zweiachsiger Biegebeanspruchung und Normalkraft. Zur annähernden Erfassung des realen Tragverhaltens zu ausgewählten Zeitpunkten sind nichtlineare Spannungs-Dehnungs-Beziehungen der Materialien, Vordeformationen von einzelnen Querschnittsanteilen, nachträgliche Ergänzungen zu neuen statisch wirksamen Verbundquerschnitten sowie Rissbildungsmodelle im Beton berücksichtigt. Die im Rahmen dieser Arbeit entstandene programmtechnische Umsetzung „VerbQ“ (auf Basis von MS EXCEL und MS VISUAL BASIC) wurde anhand von Beispielrechnungen vorgestellt und erläutert.
Der Planungsprozess im Konstruktiven Ingenieurbau ist gekennzeichnet durch drei sich zyklisch wiederholende Phasen: die Phase der Aufgabenverteilung, die Phase der parallelen Bearbeitung mit entsprechenden Abstimmungen und die Phase der Zusammenführung der Ergebnisse. Die verfügbare Planungssoftware unterstützt überwiegend nur die Bearbeitung in der zweiten Phase und den Austausch der Datenbestände durch Dokumente. Gegenstand der Arbeit ist die Entwicklung einer Systemarchitektur, die in ihrem Grundsatz alle Phasen der verteilten Bearbeitung und unterschiedliche Arten der Kooperation (asynchron, parallel, wechselseitig) berücksichtigt und bestehende Anwendungen integriert. Das gemeinsame Arbeitsmaterial der Beteiligten wird nicht als Dokumentmenge, sondern als Menge von Objekt- und Elementversionen und deren Beziehungen abstrahiert. Elemente erweitern Objekte um applikationsunabhängige Eigenschaften (Features). Für die Bearbeitung einer Aufgabe werden Teilmengen auf Basis der Features gebildet, für deren Elemente neue Versionen abgeleitet und in einen privaten Arbeitsbereich geladen werden. Die Bearbeitung wird auf Operationen zurückgeführt, mit denen das gemeinsame Arbeitsmaterial konsistent zu halten ist. Die Systemarchitektur wird formal mit Mitteln der Mathematik beschrieben, verfügbare Technologie beschrieben und deren Einsatz in einem Umsetzungskonzept dargestellt. Das Umsetzungskonzept wird pilothaft implementiert. Dies erfolgt in der Umgebung des Internet in der Sprache Java unter Verwendung eines Versionsverwaltungswerkzeuges und relationalen Datenbanken.
Norbert Wieners >Cybernetics> von 1948 geht aus von einem Vergleich zählender, durchmusternder Astronomie mit der neuen, statistikbasierten Meteorologie. Das Buch beginnt mit der ersten Strophe von >Weißt du vieviel Sternlein stehen<. ... Dieses Liedchen ist ein interessantes Thema für die Philosophie und die Geschichte der Wissenschaft, indem es zwei Wissenschaften nebeneinander stellt, die einerseits sich beide mit der Beobachtung des Himmels über uns beschäftigen, andererseits aber beinahe in jeder Beziehung höchst gegensätzlich sind. Die Astronomie ist die älteste der Wissenschaften, während die Meteorologie zu den jüngsten zählt, die erst anfangen, den Namen zu verdienen. ...
Wolken über Las Vegas
(2005)
Die Wahnvorstellung namens 'Sex-Bombe' ist ein Produkt des Kalten Krieges und wie er sich in Schwimmkostümen offenbarte - will sagen: in Bikinis. Am 1. Juli 1946 warf eine B-29 eine Atombombe auf das pazifische Atoll namens Bikini. Militärische Beobachter aus verschiedenen Ländern einschließlich der Sowjetunion sahen von entfernten Schiffen, wie die 'mushroom cloud' über dem evakuierten Eiland aufstieg. Unbemannte, radargesteuerte Flugzeuge mit automatischen Filmkameras an Bord flogen in die nukleare Wolke hinein - als ob es möglich sei, Bildmaterial zu liefern vom Ort der Auflösung alles Materiellen. ...
Among all imaging techniques that have been invented throughout the last decades, computer graphics is one of the most successful tools today. Many areas in science, entertainment, education, and engineering would be unimaginable without the aid of 2D or 3D computer graphics. The reason for this success story might be its interactivity, which is an important property that is still not provided efficiently by competing technologies – such as holography. While optical holography and digital holography are limited to presenting a non-interactive content, electroholography or computer generated holograms (CGH) facilitate the computer-based generation and display of holograms at interactive rates [2,3,29,30]. Holographic fringes can be computed by either rendering multiple perspective images, then combining them into a stereogram [4], or simulating the optical interference and calculating the interference pattern [5]. Once computed, such a system dynamically visualizes the fringes with a holographic display. Since creating an electrohologram requires processing, transmitting, and storing a massive amount of data, today’s computer technology still sets the limits for electroholography. To overcome some of these performance issues, advanced reduction and compression methods have been developed that create truly interactive electroholograms. Unfortunately, most of these holograms are relatively small, low resolution, and cover only a small color spectrum. However, recent advances in consumer graphics hardware may reveal potential acceleration possibilities that can overcome these limitations [6]. In parallel to the development of computer graphics and despite their non-interactivity, optical and digital holography have created new fields, including interferometry, copy protection, data storage, holographic optical elements, and display holograms. Especially display holography has conquered several application domains. Museum exhibits often use optical holograms because they can present 3D objects with almost no loss in visual quality. In contrast to most stereoscopic or autostereoscopic graphics displays, holographic images can provide all depth cues—perspective, binocular disparity, motion parallax, convergence, and accommodation—and theoretically can be viewed simultaneously from an unlimited number of positions. Displaying artifacts virtually removes the need to build physical replicas of the original objects. In addition, optical holograms can be used to make engineering, medical, dental, archaeological, and other recordings—for teaching, training, experimentation and documentation. Archaeologists, for example, use optical holograms to archive and investigate ancient artifacts [7,8]. Scientists can use hologram copies to perform their research without having access to the original artifacts or settling for inaccurate replicas. Optical holograms can store a massive amount of information on a thin holographic emulsion. This technology can record and reconstruct a 3D scene with almost no loss in quality. Natural color holographic silver halide emulsion with grain sizes of 8nm is today’s state-of-the-art [14]. Today, computer graphics and raster displays offer a megapixel resolution and the interactive rendering of megabytes of data. Optical holograms, however, provide a terapixel resolution and are able to present an information content in the range of terabytes in real-time. Both are dimensions that will not be reached by computer graphics and conventional displays within the next years – even if Moore’s law proves to hold in future. Obviously, one has to make a decision between interactivity and quality when choosing a display technology for a particular application. While some applications require high visual realism and real-time presentation (that cannot be provided by computer graphics), others depend on user interaction (which is not possible with optical and digital holograms). Consequently, holography and computer graphics are being used as tools to solve individual research, engineering, and presentation problems within several domains. Up until today, however, these tools have been applied separately. The intention of the project which is summarized in this chapter is to combine both technologies to create a powerful tool for science, industry and education. This has been referred to as HoloGraphics. Several possibilities have been investigated that allow merging computer generated graphics and holograms [1]. The goal is to combine the advantages of conventional holograms (i.e. extremely high visual quality and realism, support for all depth queues and for multiple observers at no computational cost, space efficiency, etc.) with the advantages of today’s computer graphics capabilities (i.e. interactivity, real-time rendering, simulation and animation, stereoscopic and autostereoscopic presentation, etc.). The results of these investigations are presented in this chapter.
>The dust and smoke of continents in flame will defeat the light of the sun, and utter darkness will reign anew upon the world. [...] Eternal snows will cover the Sahara desert; the vast rain forests of the Amazon, destroyed by hail, will disappear from the face of the planet, and the age of rock and heart transplant will revert to ist glacial infancy.< Diese eindringliche Beschreibung der Folgen eines nukearen Schlagabtausches stammt aus einer Rede, die der Literaturnobelpreisträger Gabriel García Márquez am 6. August 1986, dem Jahrestag der Bombardierung Hiroshimas, vor einer Versammlung von Politikern, Intellektuellen und Umweltaktivisten gehalten hat. Die hier so dramatisch geschilderte Vorstellung, einem Atomkrieg würde eine neue Eiszeit, ein so genannter 'nuklearer Winter' folgen, war erst drei Jahre zuvor von einer Gruppe von Wissenschaftlern um den Klimaforscher Richard Turco und dem Astronomen Carl Sagan der Öffentlichkeit vorgestellt worden. ...
We present a museum guidance system called PhoneGuide that uses widespread camera equipped mobile phones for on-device object recognition in combination with pervasive tracking. It provides additional location- and object-aware multimedia content to museum visitors, and is scalable to cover a large number of museum objects.
Bei der Bearbeitung geotechnischer Aufgabenstellungen treten häufig Probleme bei der Vorhersage des Setzungsverhaltens von Böden auf. Numerische Methoden auf Basis finiter Elemente oder finiter Differenzen werden oftmals als Hauptinstrumente der Prognose verwendet. Dabei erzielen sie jedoch nicht selten Ergebnisse, die im Nachhinein als unbefriedigend bezeichnet werden müssen. Eine Begründung dafür liegt in der Verwendung linearer Stoffgesetze, die auf Ansätze aus der Elastizitätstheorie beruhen. Werden höherwertige Stoffgesetze eingesetzt, so fehlen oftmals gesicherte Aussagen zu den erforderlichen Bodenkennwerten. Diese müssen durch ein umfangreiches Versuchsprogramm mit einer aufwendigen Auswertung bestimmt werden. Ziel dieser Arbeit ist es daher, eine robuste Methode zu entwickeln, die in der Lage ist, aus Messwerten (Feld) und Versuchsergebnissen (Labor) geeignete Parameter für Modelle mit nichtlinearer Konsolidationstheorie zu ermitteln. Dazu werden die Möglichkeiten der Mathematik ausgenutzt, welche inverse Methoden zur Verfügung stellt, mit denen man mehrere Bodenkennwerte (hauptsächlich Steifigkeiten und Durchlässigkeiten) gleichzeitig unter Be-rücksichtung ihrer Wechselbeziehungen zueinander bestimmen kann. Als Instrumentarium dafür steht das Programm AdConsol-1D zur Verfügung, welches die inverse Parameterermittlung auf Basis mathematischer Optimierungsmethode ermöglicht. Ein Test- und Versuchsdamm, der im Finnischen Haarajoki (Haarajoki Test Embankment) errichtet wurde und über längeren Zeitraum messtechnisch überwacht wurde, dient als Validationsbeispiel. Dieser wurde auf sehr verformungsempfindlichem Boden errichtet. Durch Aufbereitung und Auswertung der Feld- und Laborversuche am Haarajoki Test Embankment wurden die Grundlagen für die inverse Parameterermittlung geschaffen. Dazu wurde eine Methode zur Konstruktion plausib-ler Porenwasserüberdrücke aus Setzungsmessungen und Laborversuchsdaten entwickelt. Mit den Werten der Optimierung wurde ein Modell im 2D FEM Programm Plaxis erstellt, welches die in Haarajoki gemessenen Setzungen und Porenwasserdrücke möglichst genau reproduzieren sollte. Es zeigte sich, dass sich Bodenparameter des eindimensionalen nichtlinearen Konsolidati-onsmodells nicht problemlos auf ein 2D FEM Modell übertragen lassen. Insbesondere fehlen gesicherte Aussagen über die Größe des horizontalen Durchlässigkeitskoeffizienten kx und des Referenzsekantenmoduls E50Ref aus dem Triaxialversuch. Die inverse Berechnung für sich betrachtet verlief dahingegen zufrieden stellend mit dem eindimensionalen Modell in AdConsol-1D. Auf dieser Grundlage ist die Erstellung einer realistischen Prognose des weiteren Konsolidationsverlaufes am Haarajoki Test Embankment möglich.
Eignet sich das perspektivische System zur Repräsentation von Phänomenen, die die gewohnten Maße der menschlichen Ordnung sprengen? Anders gesagt: Bieten göttliche Handlungen, die diese Welt auf das Jenseits hin öffnen, und allgemeiner mystische - oder sogar nur physische - Begegnungen zwischen Himmel und Erde, bieten sie Stoff zur Repräsentation? ...
In Deutschland hat sich das vollautomatische Bauen bisher vergleichsweise bescheiden entwickelt. Ein hoher Automatisierungsgrad ist dagegen seit Jahren bei den stationären Mischanlagen von Baustoffen, wie Beton und Asphalt sowie in der Serienfertigung standardisierter Betonwaren zu finden. Jedoch fehlen in Deutschland die Voraussetzungen, um grundlegend neu konzipierte, flexibel automatisierte oder roboterisierte Maschinen und Systeme zu entwickeln und einzusetzen. Zur Schaffung dieser Voraussetzungen soll die vorliegende Arbeit einen Beitrag leisten. Sie betrachtet ausschließlich die Skelettbauweise. Diese stellt ein Teilgebiet des Betonfertigteilbaus dar. Da eine Automatisierungslösung grundsätzlich erst bei großen Objekten mit einer hohen Wiederholungsrate der Prozesse und Elemente wirtschaftlich ist, wird die Montage eines Mehrzweckkomplexes untersucht. Die Tragstruktur dieses Gebäudes setzt sich, charakteristisch für die Skelettbauweise, aus Stützen und Bindern zusammen. Dabei werden im Hinblick auf die Aufgabenstellung dem herkömmlichen Montageablauf die Besonderheiten und bautechnischen Voraussetzungen einer automatisierten Montage hinzugefügt. Es wird eingrenzend speziell die Montage einer Fertigteilstütze und eines Unterzuges aufgezeigt. Nach einem einleitenden Kapitel sind in Kapitel 2 die Grundlagen der Automatisierung dargestellt. Darin werden die Gründe für eine Automatisierung und deren theoretischen Vorraussetzungen beleuchtet. Vornehmlich umfasst dies die Erläuterung der Anforderungen an Automatisierungsgeräte und automatisierungsgerechte Fertigteile. Im sich anschließenden Kapitel 3 werden die Vorraussetzungen der Planung, der Vermessung und der Herstellung umfassend dargelegt. Die Planungs-voraussetzungen beschreiben den ganzheitlichen Lösungsansatz von Entwurf, Planung, Herstellung, Ausführung (Montage) und Betrieb der Gebäude. Die verschiedenen Technologien zur Positionsbestimmung, Identifikation und Objektverfolgung werden in den vermessungstechnischen Grundlagen erläutern. Um alle Bereiche, die vor dem Beginn der eigentlichen Montage notwendig sind zu beleuchten wird schließlich in den herstellerseitigen Vorraussetzungen insbesondere beschrieben, welche optischen Markierungen, Sensoren und andere Hilfsmittel in die Fertigteile zu integrieren sind. Das Kapitel 4 beschreibt detailliert die beispielhafte Montage der Fertigteilstütze und des -unterzuges. Ergänzend sind in die einzelnen Schritten der Montage selbst entwickelte Varianten integriert. Als Grundlage werden zu jedem Prozess Gemeinsamkeiten aller Varianten aufgeführt. Daran schließen sich nach Bedarf individuelle Erläuterungen an. Die Varianten sind aus Überlegungen des Autors und aus den Konsultationen mit dem betreuenden Lehrstuhl entwickelt worden. Sie werden in diesem Teil der Arbeit detailliert beschrieben und ihre Eigenarten und Verwendungszwecke erläutert. Im Ganzen gesehen ergibt dieses Kapitel eine komplette Montage mit verschiedenen Möglichkeiten die einzelnen Schritte auszuführen. Im Kapitel 5 werden zu den jeweiligen Varianten die Vor- und Nachteile knapp und übersichtlich dargestellt. Aus welchen Gründen eine Variante weiterverfolgt werden sollte oder sie nicht umsetzbar ist, ist in einem sich jeweils anschließenden kurzen Fazit begründet. Anschließend wird unter teilweiser Verwendung der Varianten eine Vorzugsvariante zur automatisierten Montage entwickelt. Auf detailliertere Ausführungen wurde hier verzichtet um sich nicht zu wiederholen und Redundanzen zu vermeiden. Ausführlich wurden die einzelnen verwendeten Varianten bereits im Kapitel 4 beschrieben. Das Kapitel 6 untersucht die wirtschaftlichen Potentiale einer automatisierten Fertigteilmontage und stellt die Kosten einer automatisierten Montage, denen einer herkömmlichen Montage gegenüber. Dabei wurden verschiedene Annahmen getroffen, die aus den Ergebnissen der vorliegenden Arbeit, den Ergebnissen der Diplomarbeit von Frau Lauterbach und weiteren Literaturrecherchen abgeleitet wurden. Kapital 7 fasst die Ergebnisse der Arbeit zusammen und gibt Hinweise auf notwendige weiterführende Forschungen und Untersuchungen.
Ziel dieser Diplomarbeit war es unter Verwendung von Messwerten und mathematischen Grundlagen eine Ermittlung der Tragfähigkeit vorhandener Straßenkonstruktionen. Ausgangspunkt waren Messungen auf zwei verschiedenen Strecken (L 2141 Andisleben-Dachwig, L1042 Gierstedt-Kleinfahner). Die Messungen wurden jeweils mit dem Benkelmannbalken und dem Falling-Weight-Deflectometer vorgenommen. Beide Verfahren unterscheiden sich durch die Art der Lateintragung. Die Lasteintragung erfolgt mit dem Benkelmannbalken statisch und mit dem Falling-Weight-Deflectometer dynamisch. Daraus folgt, dass die aus den Einsenkungswerten ermittelten E-Module mittels Benkelmannbalken statische E-Module und mittels Falling-Weight-Deflectometer. dynamische E-Module sind. Der E-Modul einer Schicht ist ein Maß für den Verformungswiderstand einer Straßenkonstruktion. Jede Straßenkonstruktion weist ein kompliziertes Verformungsverhalten auf. Betonstraßen besitzen in der Regel größere E-Module als Asphaltstraßen, die sich aber viskoelastisch und viskoplastisch verformen können. Der E-Modul einer Schicht ist auch von der jeweiligen Schichthöhe abhängig. Grundsätzlich gilt, je mehr Einsenkungswerte von einer Straßenkonstruktion zur Verfügung stehen, desto genauer fallen die Beurteilungen hinsichtlich ihrer Tragfähigkeit aus. Die mathematische Ermittlung der Tragfähigkeit einer Straßenkonstruktion erfolgt über die Festlegung eines mathematischen Modells. Es wurden verschiedene Modelle untersucht. Das einfachste Modell zur Beschreibung einer Straßenkonstruktion ist der elastisch- isotrope Halbraum, wobei der gesamte Straßenkörper durch einen einzigen E-Modul beschrieben wird. Eine wesentlich exaktere Beschreibung einer Straßenkonstruktion ist das Zweischichtensystem. In diesem System wird der bituminöse Aufbau mit der Schichtdicke h und dem E-Modul E1 gekennzeichnet und die Unterlage (Frostschutzschicht und Untergrund zusammengefasst) mit dem E-Modul E2 beschrieben. Das Zweischichtensystem hat den Vorteil, dass ein erkennbarer E-Modul Sprung zwischen der gebundenen Schicht (E1) und der ungebundnen Schicht (E2) entsteht. Ein drei oder mehrschichtiges System hier anzuwenden ist sehr schwierig, da dieses nicht eindeutig bestimmt ist. Das Zweischichtensystem ist eindeutig bestimmt und liefert genügend gute Ergebnisse, um die Tragfähigkeit zu beschreiben.
Wolken - Editorial
(2005)
Der neue Band des Archivs für Mediengeschichte beschäftigt sich mit Wolken und geht dabei ganz unterschiedlichen Fragestellungen nach. Einerseits verfolgen die Beiträge das naturwissenschaftliche Phänomen»Wolke«, das zu Beginn des 19. Jhds. seine Einteilung in cirrus, cumulus, stratus und nimbus erhielt und seitdem zum bis heute schwer zu entschlüsselndem Forschungsgegenstand wurde. Andererseits ist die Wolke aber auch begehrter künstlerischer Gegenstand. Wolkenmalerei, Wolkenfotografie sowie matte painting und digitale Animation zur Wolkendarstellung im Medium Film sind u. a. Themen dieses Heftes. Und auch eine »schwarze« Seite der Wolke spielt in diesem Band eine Rolle: die Wolkenformationen der Atompilze, die in den 1950er Jahren beliebtes Medienobjekt
The specific socio-political frame and context in Federal Republic of Yugoslavia (SRJ) was in many ways unique in Europe. The way social space was produced, starting from mid eighties in the former Socialist Federal Republic of Yugoslavia (SFRJ) in the period of severe economic and political crises, and later in the new independent republics formed after it’s disintegration, was extremely harsh. The new SRJ had an especially peculiar context due to the sanctions of UN that were introduced in 1992 after the clashes in Bosnia and cases of ethnic cleansing. One of the causes for the production of such a drastic social space could be seen in the strongest wave of ethnonationalism recorded in recent European history, accompanied with the equally strong wave of populism, that were interestingly enough conceived as a program of Serbian national and cultural renaissance in the highest cultural institutions in Serbia like the Serbian Academy of Sciences and Arts and Association of Writers of Serbia, and supported by the Serbian Orthodox Church. After being recognized as a powerful homogenizing force by the communist elite that came to power, Slobodan Miloševi's being its strongest representative, these ideological matrixes thus induced their reproduction in all spheres of the society. On the other side the sanctions by UN and isolation of the country caused the "economy of destruction", economic collapse with the highest rate of inflation ever recorded. The effects of these phenomena were devastating for the new SRJ, where thus produced social milieu was dominated by patriarchalism, authoritarianism, a warlike spirit, xenophobia, and national-chauvinism. In Miloševi's Serbia of the 90’s after introduction of the multi party parliamentary democracy, two public spheres have functioned in autonomous way: one official having all the monopolistic instruments from the former communist ideological structures, and the other alternative and oppositional having just support from a few alternative media houses and mainly the streets for public address and speech. When the wave of ethnonationalism and populism came back from the political realm to the sphere of culture and contaminated it, the highest national institutions of culture started to reproduce this ideological matrix. The task of the artworks was to glorify the history of Serbian people and they could be read as symptoms of the social pathology of the milieu where they originated. Their performative role was to contribute to the production of such a social space and reproduce the hate speech so present in all the media. For the artists who didn't want to conform to the dominant ideological matrix the trauma experienced had different effect and caused strong reaction. One aspect was the withdrawal from the social sphere into the closed, hermetic artistic circles and the strategy defined as active escapism; another was gathering into groups and associations with the aim to criticize, oppose, and face the social reality with engaged artworks. Finally, I focus on different artistic strategies towards the produced social space and analyze both the art practices that reproduced the dominant ideological matrix in the use of the regime, as well as the ones that tried to enter the publics sphere in the critical way and offer the alternative model of the (cultural) public sphere. The paradigm for the analysis of the Serbian art scene or community in the period of sanctions and isolation, mostly in the first half of the nineties, but also encompassing the whole decade, was the one of the “art in the closed society”. As much as this formulation was explanatory for the situation in Serbia under the sanctions, my perspective on the problem is that self-isolation by the artists was more important that the outer wall of barriers, and what mattered was the decision of the majority of the artists to stay out of the public and social spheres. In the global age of informational society where Internet was providing all necessary information on the actual happenings in art, the paradigm of the closed society could be more used as a psychological feature of self-isolation and withdrawal from the reality as it was too hard to bare it. I am therefore focusing mainly on art practices that were trying to deconstruct the dominant ideological matrix, create platforms and arenas where artists could engage in cultural activity and raise different critical issues, and eventually construct the alternative cultural public sphere where many >marginal< voices could be heard, many micro-social spaces could be visible.
In dieser Arbeit wird die Fällung von Magnesium-Ammonium-Phosphaten (MAP) aus Schlachthofabwasser behandelt. Einleitend wird der Schlacht- und Zerlegprozess von Tieren in der Nahrungsmittelindustrie beschrieben und dabei die Stellen des Abwasseranfalls gekennzeichnet. Nachfolgend werden einige chemische Grundlagen zum MAP und dessen Kristallisationsparameter erläutert und ausgewertet. Nach Auswertung eigener Fällungsversuche wird ein Vorschlag für eine technische Lösung gebracht und dessen Kosten abgeschätzt.
We present PhoneGuide – an enhanced museum guidance approach that uses camera-equipped mobile phones and on-device object recognition. Our main technical achievement is a simple and light-weight object recognition approach that is realized with single-layer perceptron neuronal networks. In contrast to related systems which perform computational intensive image processing tasks on remote servers, our intention is to carry out all computations directly on the phone. This ensures little or even no network traffic and consequently decreases cost for online times. Our laboratory experiments and field surveys have shown that photographed museum exhibits can be recognized with a probability of over 90%. We have evaluated different feature sets to optimize the recognition rate and performance. Our experiments revealed that normalized color features are most effective for our method. Choosing such a feature set allows recognizing an object below one second on up-to-date phones. The amount of data that is required for differentiating 50 objects from multiple perspectives is less than 6KBytes.
Innerhalb der Arbeit wurden vorliegende Druckversuche an bewehrten Elastomerlagern hinsichtlich des Druckstauchungsverhaltens systematisch ausgewertet. Die Druckversuche wurden an Lagern verschiedener Hersteller durchgeführt. Die Versuchsdurchführung und Auswertung erfolgte nach DIN 4141-140 bzw. nach EN 1337-3. Die ermittelten Druckstauchungswerte in Form des ideellen E-Moduls wurden anschließend den vereinfachten Berechnungsansätzen der Normen DIN 4141-14/A1 und EN 1337-3, sowie den Berechnungsansätzen nach Topaloff gegenüber gestellt. Als Nebenaspekt der Arbeit wurde eine am Lehrstuhl vorliegende Versuchsdatenbank auf ihre Eignung und Funktionalität untersucht.