Refine
Document Type
- Article (1015)
- Conference Proceeding (857)
- Doctoral Thesis (494)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- Institut für Strukturmechanik (ISM) (346)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Professur Stochastik und Optimierung (46)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Angewandte Mathematik (331)
- Computerunterstütztes Verfahren (289)
- Architektur (247)
- Architektur <Informatik> (201)
- Strukturmechanik (189)
- CAD (184)
- Angewandte Informatik (155)
- Bauhaus (125)
Year of publication
- 2004 (220)
- 2003 (197)
- 2006 (173)
- 1997 (165)
- 2015 (125)
- 2020 (123)
- 2010 (114)
- 2008 (112)
- 2005 (106)
- 2012 (105)
- 2000 (100)
- 2022 (94)
- 2011 (91)
- 2021 (88)
- 2013 (85)
- 2014 (85)
- 2016 (70)
- 2019 (65)
- 2023 (65)
- 1987 (63)
- 1990 (60)
- 2017 (58)
- 2018 (58)
- 2007 (53)
- 1983 (49)
- 2009 (49)
- 1979 (36)
- 1976 (29)
- 2001 (24)
- 2002 (24)
- 1993 (23)
- 1999 (18)
- 1992 (16)
- 1998 (7)
- 2024 (4)
- 1995 (1)
Heimo Bachstein, Jahrgang 1937, war Sparkassenangestellter und Filmenthusiast. Er lebte in Marktheidenfeld unweit von Würzburg, wo er 2011 starb. In den 1960er Jahren begann er, Filmplakate und Fotografien zu sammeln, schrieb filmkritische Texte und Vorträge, korrespondierte mit Verleihern, Filmemachern und Festivalleitungen, agierte als Jurymitglied und wurde gelegentlich als Schauspieler besetzt. Im Laufe von fünf Jahrzehnten entstand auf diese Weise in seiner Wohnung ein „Filmkunstarchiv“ – so eine von Bachsteins Bezeichnungen –, das kurz vor seinem Tod als Schenkung an die Bauhaus-Universität Weimar kam.
Szenarien der Moderne
(2016)
Wenige Begriffe vermögen so viel Faszination und Unbehagen gleichzeitig auszulösen wie die Moderne. Der Begriff birgt so viele Unschärfen, dass man eigentlich gut daran tun würde, ihn zu vermeiden. Allein die Frage, was modern sei, oder wann die Moderne begann, lässt sich nicht eindeutig beantworten. Vielleicht am meisten Kontur besitzt die Moderne als Epochenbegriff der Geschichtswissenschaften, wobei auch dort zwischen ökonomischen, politischen und weiteren Modernen unterschieden wird. Geradezu inflationär ist die Verwendung in der Kunsthistoriografie: Über weite Strecken des 20. Jahrhunderts wurde die Moderne als hauptsächlich ästhetisches Phänomen verstanden und tradiert, bis zur Konstruktion des längst relativierten Mythos der Begründung der Moderne allein durch das Neue Bauen oder gar das Bauhaus.
Spätestens die Postmoderne hat den Begriff endgültig diversifiziert und dazu beigetragen, dass lange „als antimoderne Rückfälle" (G. Weckerlin) beschriebene Strömungen in einer erweiterten Sichtweise als Phänomene modernen Kunstschaffens wahrgenommen werden, wie etwa die Heimatschutzarchitektur oder die Monumentalbaukunst im Nationalsozialismus. Angesichts des entstandenen Spektrums ist heute von einem pluralistischen Begriff der Moderne auszugehen. Für die zweite Jahrhunderthälfte spricht man von Nachkriegsmoderne, Spätmoderne und Postmoderne. Stilistisch decken diese Varianten ein breites Feld ab – vom Funktionalismus über Strukturalismus, Brutalismus bis zum postmodernen „anything goes“. Dass diese Strömungen in ihrer Begriffsdefinition sowie in der Abgrenzung zueinander teils große Ungenauigkeiten aufweisen, verdeutlicht der Begriff der Nachkriegsmoderne, der sich auf das Ende des Zweiten Weltkrieges bezieht und dabei andere Konflikte außer Acht lässt. In manchen osteuropäischen Ländern spricht man daher eher von Ostmoderne oder Sozmoderne.
Unabhängig von der Wirkungsweise der Begriffe ragt die Moderne in verschiedensten Szenarien in unser alltägliches Leben hinein. Dieses Heft zeigt die Vielfalt solcher Situationen an verschiedenen Orten: bei der Betrachtung von Fassaden im Straßenraum, im Museum für Gegenwartskunst, an der Bushaltestelle oder beim Stadtlauf. Die Moderne ist so allgegenwärtig, dass ihre Werte, aber auch ihre Verletzlichkeit gerade deshalb oft nicht erkannt und erfasst werden. Mit dem Problem einer voreingenommenen Wahrnehmung und fehlenden Auseinandersetzung kämpfen zurzeit viele Denkmalämter und bürgerschaftliche Initiativen, die sich zunehmend mit den Baubeständen der Moderne beschäftigen. Das vorliegende Heft bildet eine Spurensuche nach verschiedenen Szenarien
der Moderne ab, die ganz bewusst abseits der breiten Pfade verläuft. Dabei versucht das Heft, die schillernden Facetten und die trotz allem große Bindekraft des Moderne-Begriffes aus verschiedenen Perspektiven zu beleuchten und zu ergründen.
Beiträge zur 2. Fachtagung „Sicherheit auf Baustellen“ am Dienstag, dem 20. März 2001 in Weimar an der Fakultät Bauingenieurwesen, Professur Baubetrieb und Bauverfahren der Bauhaus-Universität Weimar. Der Tagungsband enthält einen Spezialteil „Qualität und Sicherheit auf Baustellen und im Schweißbetrieb“ anlässlich des Ausscheidens von Herrn Prof. Dr.-Ing. habil. Karl-Dieter Röbenack aus dem aktiven Berufsleben.
Hochschulwege 2015
(2017)
Die in diesem Tagungsband zusammengeführten Beiträge beschäftigen sich mit dem Spannungsfeld, das sich zwischen externen Förderprogrammen, Veränderungsprojekten und den Zielen, Strukturen und Bedingungen der jeweiligen Hochschule ergibt. In diesem Spannungsfeld kommt es unweigerlich zu Reibungen, da vorhandene Strukturen und Ziele in Konflikt mit neuen Vorhaben und Ideen geraten. Ein Teil der Projekte stellt allein durch ihr finanzielles Volumen und die daraus resultierende Wirkkraft die tradierten Verhältnisse zwischen Lehre, Forschung und den wissenschaftsstützenden Bereichen in Frage und teils auf den Kopf. Die leitenden Fragen der Tagung und der hier versammelten Beiträge waren daher: Wie bringen Hochschulen ihre individuellen Ziele mit denen der bundesweiten Programme oder länderspezfifischer Fördermaßnahmen überein? Wie gehen Hochschulen mit ihren Projekten um? Wie vollzieht sich Veränderung an den Hochschulen? Und schließlich: Was bleibt von den Impulsen, die Projekte setzen? Die in diesem Tagungsband versammelten Beiträge geben darauf erste, auf dem bisherigen Erfahrungswissen basierende Antworten. Sie setzen sich intensiv mit den Faktoren auseinander, die den Erfolg von Veränderungsprozessen und Projekten befördern oder behindern können und leiten daraus Empfehlungen für Gestaltungsprozesse an Hochschulen ab.
Die Corona-Krise stellt das städtische Zusammenleben auf eine harte Probe. Nicht nur sozialer Austausch, Kultur und Verkehr, sondern auch die kommunale Demokratie ist massiv beeinflusst. Wer kann in der Krise noch mitsprechen? Und wie verändert sie das Zusammenspiel von Verwaltung, Politik und Zivilgesellschaft? Die Beiträger*innen untersuchen anhand von Fallstudien die Auswirkungen der Krise auf die kommunale Beteiligungskultur. Sie fragen mit interdisziplinärem Blick nach der kommunalen Krisenbewältigung und erfolgreichen Governance-Strukturen im Kontext multipler Krisen. Ihr Ansatz der kritischen Urbanistik versteht sich dabei als Einladung zur Reflexion, Debatte und alternativen Praxis.
In diesem Dokument gehen wir den gesamten Fragebogen für die vollständige Gemeinwohlbilanz (kurz GB, katalanisch Balanç Comunitari bzw. BC) Frage für Frage durch und erklären, was mit jeder einzelnen Frage gemeint ist und welche Informationen anzugeben sind. Es wird daher sehr empfohlen, vor dem Ausfüllen des Fragebogens in der App einen Blick auf den gesamten Fragenkatalog zu werfen, weil dies die Erhebung der Daten und die Verteilung der Aufgaben auf die verschiedenen mit der Erstellung der GB befassten Personen erleichtert. Die GB ist ein Selbstevaluierungstool, mit dem Organisationen ihre Tätigkeit unter Umwelt-, Sozial- und Governance-Aspekten bewerten können.
Die folgende Studie misst in wirtschaftlicher Hinsicht den sozialen Wert und die Sozialrendite, die auf einem Teil des Fabrikgeländes von Can Batlló von 2011 bis heute entstanden sind. Um die Beiträge der Nachbarschaftsgemeinschaft in wirtschaftlicher Hinsicht zu messen, wurde eine doppelte Schätzmethode angewandt. Zum einen wurden die Beiträge der ehrenamtlichen Personen von Can Batlló in den Bereichen Verwaltung und Unterhaltung, Reinigung, Bau und Durchführung von Aktivitäten quantifiziert und bewertet. Zum anderen wurde der Wert von Can Batlló berechnet, indem ein Vergleich mit den Kosten angestellt wurde, die entstanden wären, wenn der Bau von Räumen und die Erbringung von Dienstleistungen auf Basis der Referenzpreise der jeweiligen Dienstleistung durch die Stadt erfolgt wären. Diese wirtschaftliche Bewertung der Sozialrendite wird durch die Gemeinwohlbilanz ergänzt, die von der Organisation erstellt wird.
Klangwelten gestalten. Zur Aktualität des Bauhauses in Sound Design und auditiver Stadtplanung
(2021)
Die Gestaltung von Klangwelten ist in den letzten Jahrzehnten in den Fokus von Stadtplanern und Architekten, Produkt-Designern und Musikproduzenten, aber auch der historischen und kulturwissenschaftlichen Forschung gerückt. Der Tagungsband versteht sich als ein Beitrag zu diesem neuen Praxis- und Forschungsfeld. Er will zugleich Bezugspunkte zu Konzepten des Bauhauses als einem historischen Vorläufer aufzeigen.
Städte ohne Wachstum - eine bislang kaum vorstellbare Vision. Doch Klimawandel, Ressourcenverschwendung, wachsende soziale Ungleichheiten und viele andere Zukunftsgefahren stellen das bisherige Allheilmittel Wachstum grundsätzlich infrage. Wie wollen wir heute und morgen zusammenleben? Wie gestalten wir ein gutes Leben für alle in der Stadt? Während in einzelnen Nischen diese Fragen bereits ansatzweise beantwortet werden, fehlt es noch immer an umfassenden Entwürfen und Transformationsansätzen, die eine fundamental andere, solidarische Stadt konturieren. Diesen Versuch wagt das Projekt Postwachstumsstadt.
In diesem Buch werden konzeptionelle und pragmatische Aspekte aus verschiedenen Bereichen der Stadtpolitik zusammengebracht, die neue Pfade aufzeigen und verknüpfen. Die Beiträge diskutieren städtische Wachstumskrisen, transformative Planung und Konflikte um Gestaltungsmacht. Nicht zuletzt wird dabei auch die Frage nach der Rolle von Stadtutopien neu gestellt. Dadurch soll eine längst fällige Debatte darüber angestoßen werden, wie sich notwendige städtische Wenden durch eine sozialökologische Neuorientierung vor Ort verwirklichen lassen.
Schwerpunkt Kulturtechnik
(2010)
Medientheorie und historische Medienwissenschaft sind seit geraumer Zeit dabei, einen Schritt zu tun, der sie hierzulande zumindest teilweise in historische und systematische Kulturtechnikforschung überführt. Die Möglichkeit existiert, dass die Medien als Referenz eines Wissenschaftsparadigmas, das gerade dabei ist, die Forschungs- und Lehrstrukturen dieses Landes zu erobern, sich bereits im Zustand bloßen Nachlebens befinden. Damit kommen mindestens jene Teile der Medienforschung zu sich, die seit der Institutionalisierung von Medienwissenschaft realisieren mussten, dass jene Medien, mit denen sie es seit den 1980er Jahren zu tun hatten, sich nur schwer in den Rahmen der Medien der Medienwissenschaft fügen wollen. Es scheint daher so, als ließe sich mit dem Begriff der Kulturtechniken etwas fassen, das schon seit den 80er Jahren eine Spezifik der entstehenden deutschen Medienwissenschaft gewesen ist, eine Spezifik, die sie den angloamerikanischen media studies ebenso entfremdete wie der Kommunikationswissenschaft oder gar der Soziologie, die, im Banne der Aufklärung und des Gesellschaftsbegriff s stehend, über Medien grundsätzlich nur unter dem Aspekt der Öff entlichkeit nachdenken wollte. Was sich in den 80er Jahren des letzten Jahrhunderts etwa unter dem Titel einer Diskurs- und Medienanalyse formierte, zielte nicht primär auf eine Medientheorie oder die Geschichte von Einzelmedien ab, die längst identitätsstiftend für je eigene Forschungsdisziplinen geworden waren (Fotografie, Film, Fernsehen, Rundfunk), sondern auf eine Geschichte der Literatur, des Geistes, der Seele und der Sinne, die man der Literaturwissenschaft, der Philosophie, der Psychologie und der Ästhetik wegzunehmen gedachte, um sie auf einem anderen Schauplatz aufzuführen: dem der Medien – und gegenwärtig der Kulturtechniken. Weil aber gar nicht die Medien im Fokus der Entdeckung standen, sondern eine Rekontextualisierung der traditionellen Gegenstände der Geisteswissenschaften, genauer eine »Austreibung des Geistes aus den Geisteswissenschaften« (Friedrich Kittler), kam von vornherein anderes in den Blick als diejenigen Medien, die die Publizistik- und Kommunikationswissenschaft, die Massenmedienforschung oder die Einzelmedienwissenschaften als ihre primären Untersuchungsfelder auswiesen.
Schwerpunkt Synchronisation
(2014)
Nichts ist so aktuell wie die Gegenwart; gegenwärtig sein aber heißt gleichzeitig sein mit etwas anderem, und diese Gleichzeitigkeit muss immer eigens durch geeignete Operationen der Übertragung, der Überbrückung, der Abstimmung und ihre Werkzeuge hergestellt werden. So schlicht erklärt sich die grundlegende und aktuelle Relevanz des Themas der Synchronisierung ebenso wie seine kulturtechnische und medienphilosophische Ausformung. Die aktuelle medientheoretische und medienhistorische Aufmerksamkeit für die Verfertigung der Gegenwart (deren wichtigste Operation diejenige der Synchronisierung ist), wie sie sich auch im Jahresthema 2012/2013 der Forschungen am Internationalen Kolleg für Kulturtechnikforschung und Medienphilosophie (IKKM) niedergeschlagen hat, reagiert auf eine spezifische zeitphilosophische Spannungslage, die sich im Anschluss an die strukturale und poststrukturale sowie die systemtheoretische Differenztheorie einerseits und an eher empirische, phänomenale, aber auch technikhistorisch und -theoretisch relevante Sachverhalte andererseits ergeben hat. Den ersten Pol dieser Spannung bildet die Dekonstruktion der Präsenz, etwa, im Sinne Jacques Derridas, der Gleichzeitigkeit von Stimme und Ohr beim Sprechen, oder, im Sinne Deborah Eschs, der Live-Übertragung des Fernsehens. Den anderen Pol jedoch bilden die dennoch sich behauptenden phänomenalen und funktionalen Gleichzeitigkeitserfahrungen und -effekte. Sie umfassen etwa das Miterleben des Spielzuges im Sport, wie Hans Ulrich Gumbrecht es gefasst hat, und zahlreiche andere ästhetische, insbesondere erhabene Erfahrungen. Am anderen Ende der Skala gehören aber auch Prozesse wie die technische Einsteuerung und Abstimmung von Taktfrequenzen in Regelkreisen und Übertragungszusammenhängen zu den gültigen Formen effektiver Gleichzeitigkeit. Auch Verdichtungsvorgänge wie die mehr oder weniger instantane, ereignisbezogene wie ereignisförmige Bildung und Auflösung von Publika sind derlei relevante Präsenzeffekte. Die grundlegende Einsicht in die Gemachtheit und folglich Dekonstruierbarkeit der Gegenwart durch Synchronisierungs- und Desynchronisierungsoperationen jedenfalls widerstreitet nach medienwissenschaftlicher Überzeugung nicht ihrer Wirklichkeit im Sinne der Wirksamkeit – der lateinischen »actualitas«, als deren deutschsprachige Entsprechung die Scholastik des Mittelalters bei Meister Eckhart den Begriff der »Wirklichkeit« erst einführte.
Schwerpunkt Kollektiv
(2012)
Die neuere und höchst produktive Konjunktur des »Kollektiv«-Begriffs in Soziologie und Kulturtheorie, wie sie sich insbesondere durch die Ent-faltung der Akteur-Netzwerk-Theorie herausgebildet hat, ist zunächst durch vier miteinander zusammenhängende Eigentümlichkeiten gekennzeichnet. Erstens bezeichnet das »Kollektiv« in diesem Sinne vor allem anderen eine Ansammlung von Entitäten zu einem als Ganzem operativen, möglicherweise sogar handlungs- und reflexionsfähigen Komplex. Die Operationen werden dabei erstens im »Kollektiv« und durch das »Kollektiv« ausgeführt, gleichzeitig jedoch sind sie es, die das »Kollektiv« überhaupt erst aufspannen und relationieren und so zusammenhalten und reproduzieren bzw. variieren. Das Besondere daran ist zweitens – und das unterscheidet den »Kollektiv«-Begriff etwa von demjenigen des Systems –, dass es keine Subsumption der beteiligten Entitäten unter das kollektive Gebilde gibt. Die Operationsfähigkeit und der Zusammenschluss führen weder zu einem Aufgehen des Einzelnen im Ganzen, noch zerfällt im Rückfall das Ganze in eine bloße Gesamtheit aufsummierbarer Teile und Effekte. Kurz: Das »Kollektiv« kann nicht über die Beziehung von Ganzem und Teil definiert und schon gar nicht nach einer dieser beiden Seiten hin aufgelöst werden. Drittens, und das ist der vermutlich plakativste Zug des neuen »Kollektiv«-Begriffs, umfasst das »Kollektiv« Entitäten völlig heterogener Art, genauer: Es bringt solche Gegebenheiten zusammen, die nach klassischer ontologischer Tradition verschiedenen Seinsbezirken zugerechnet worden wären. Das sind vor allem die berühmten menschlichen und nichtmenschlichen Akteure Bruno Latours, das sind also Personen und Artefakte, Kultur- und Naturdinge, Intelligibles und Sensibles, Reflexives und Irreflexives, Technisches und Ästhetisches, Bilder und Objekte oder sogar Materielles und Immaterielles wie Geister, Götter und Ahnen, so bei Descola oder Gell. Und viertens schließlich ist der »Kollektiv«-Begriff speziell ein Kontrastbegriff , der innerhalb der »neuen Soziologie« der Akteur-Netzwerk-Theorie an die Stelle des Gesellschaftsbegriff s treten soll, eben um dessen humanozentrische Prägung einerseits und seine subsumptive, generalisierende und anti-partikulare Tradition
andererseits abzustreifen.
Die zunehmende und sich zunehmend ausfächernde Rezeption der Akteur-Netzwerk-Theorie (ANT) in der deutschsprachigen Medientheorie ist als eine der interessantesten Konjunkturen der kulturwissenschaftlichen Medienforschung in den letzten Jahren bezeichnet worden. Zweifellos hängt diese Faszination mit dem Umstand zusammen, dass der Ansatz der ANT der deutschsprachigen Medienforschung einen Ausweg verspricht aus einer Situation, die lange geprägt war vom Gegensatz zwischen Soziologie und Technikmaterialismus oder, mit anderen Worten, vom aufreibenden Kampf um die letztbegründende Instanz des Sozialen oder des Technischen. Da, anders als zum Beispiel in Frankreich und England, hierzulande die Geisteswissenschaften, insbesondere die Literaturwissenschaft, eine wichtige Rolle bei der Entstehung der Medienwissenschaft gespielt haben, konnte dieser noch heute Disziplinen und Forscher voneinander trennende Dissens auch die Gestalt eines Streits um die letztbegründende Instanz des Sinns oder des Nichtsinns, des Hermeneutischen oder des Nichthermeneutischen annehmen. Dabei ist die Frage, ob technische Objekte vollständig sozial konstruiert sind oder das Soziale eine Fiktion ist, die von Techniken produziert wird; oder ob dieser Gegensatz selbst nur ein konstruierter ist, durchaus eine Frage, die auch die ANT im Laufe ihrer ebenfalls durch Querelen gekennzeichneten Geschichte beschäftigt hat. Während die ANT der deutschsprachigen Medienwissenschaft also einerseits ein Versprechen zu machen scheint, so droht sie der kulturwissenschaftlichen Medienforschung andererseits mit dem Verlust ihres ›Markenzeichens‹: der emphatisch betonten empirisch-transzendentalen Sonderrolle der Medien. Daher sieht sich die medienwissenschaftliche Forschung, zumindest soweit sie einen humanwissenschaftlichen Hintergrund hat, der ANT gegenüber zu einer »Gretchenfrage« herausgefordert: Wie hältst du es mit den Medien? Die Antwort fällt, wie könnte es anders sein, zweideutig aus.
Mit dem Thema der Medienanthropologie kehrt eine Fragestellung in den Fokus der ZMK zurück, diesmal als ausdrückliche, die von Anfang an zu den Schwerpunkten ihres wissenschaftlichen Programms gehört hat. In ihrer ersten Ausgabe bereits hat die ZMK sich damit befasst, die philosophische Leitfrage nach dem Menschen medientheoretisch und kulturtechnisch neu zu grundieren. Eine solche Wendung ist daran erkennbar, dass sie von der Frage, was der Mensch sei, umstellt auf Fragen nach dem Werden und Gemachtwerden des Menschen, nach seiner Hominisierung und ihren Diskursen, ihren Verfahren, Werkzeugen und Orten in Raum und Zeit. Nicht so sehr was, sondern wo und wann, unter welchen Bedingungen und mithilfe welcher Instrumente und Operationen der Mensch sei, darum, so der Ausgangsgedanke, geht es der Medienanthropologie. Damals, in der ersten Ausgabe der ZMK, bestand die Leitidee darin, sich diesen Fragen zunächst von der Peripherie her zu nähern und die so verstandenen Bedingungen des Menschseins von der Gefährdung des Menschen, von einem exemplarischen Grenzzustand aus zu betrachten, in dem diese Bedingungen problematisch werden können, nämlich demjenigen der Angst. Heute, und mit der vorliegenden Ausgabe, wird ein anderer, zusätzlicher und zugleich weiter greifender Aspekt gesetzt. Denn das Feld der Medienanthropologie hat sich in den vergangenen Jahren ver-
ändert; die Debatten sind intensiviert und die Forschungen diversifiziert worden. In dieses Feld greift die ZMK nun mit einer dezidierten Position ein, die auf kontinuierliche Diskussionen und Entwicklungen innerhalb der Kulturtechnikforschung und der Medienphilosophie und auch zwischen ihnen aufbauen kann.
Schwerpunkt Mediephilosophie
(2010)
Die prominent und polemisch geäusserte Ansicht, bei der Medienphilosophie handele es sich um eine vorübergehende Angelegenheit, ist vermutlich sehr zutreff end. Medienphilosophie selbst hat nie etwas anderes behauptet. Und genau aus diesem Grund, also eben wegen ihrer Vorläufigkeit, ist Medienphilosophie so wichtig. Sie tritt vielleicht tatsächlich als neue, modische Unterdisziplin der Philosophie auf. Aber sie tut dies, weil sie eine sehr ernsthafte Herausforderung an die Philosophie darstellt. Wie und wann sie wieder vergeht, das hängt davon ab, was sie ausrichtet. Medienphilosophie ist nämlich in ihrem Selbstverständnis ein grundlegend operatives und operationales Unternehmen. Daher rührt ihre große Nähe zu und ihr vitales Interesse an den Kulturtechniken und ihrer Erforschung.
Sie interessiert sich für Eingriff e aller Art – und ist selbst einer. Sie hat – und zwar keineswegs nur metaphorisch – Anteil am materiellen Körper der Philosophie, für den Philosophie selbst, immer hart am Begriff , sich gar nicht interessiert und dies auch nicht tun muss. Zum materiellen Körper der Philosophie zählten bereits die schreibende Hand, vielleicht das vorrangige Medium des philosophischen Eingriffs, und ihr Werkzeug, das Schreibzeug, das sie führt. Als Medienphilosophie widmet sich die Philosophie den Gesten, die sie in der Welt ausführt, und den Operationen, die sie an den Dingen und mit ihrer Hilfe vornimmt.
Schwerpunkt Entwerfen
(2012)
Entwerfen ist ein äusserst unscharfer Begriff. Mit ihm kann je nach Kontext ebenso Zeichnen, Planen, Modellieren, Projektieren oder Darstellen gemeint sein wie Erfi nden, Entwickeln, Konzipieren, Komponieren und ähnliches. Wenn Architekten vom Entwurf reden, verwenden sie das Wort meist in einer Bedeutung, die auf den kunsttheoretischen Diskurs zurückgeht, der im Florenz des 16. Jahrhunderts entstanden ist: Entwurf als disegno. Dementsprechend konnte Entwerfen in der kunsthermeneutischen Rezeption schließlich mit dem ›künstlerischen Schaff ensprozess‹ selbst synonym werden. Im Entwerfen meint man der geistigen Vermögen und Prozesse im künstlerischen Subjekt habhaft zu werden.
An diese Tradition soll hier bewusst nicht angeknüpft werden. Um das Entwerfen als Kulturtechnik in seiner historischen Bedingtheit zu beschreiben, muss es aus dem anthropozentrischen Ursprung herausgerückt werden, an den es der florentinische kunsttheoretische Diskurs versetzt hat. Statt das Entwerfen als fundamentalen Akt künstlerischen Schaff ens zu begreifen und als anthropologische Konstante der Geschichte zu entziehen, wäre eben diese Konzeption als historisches Resultat von diskursiven, technischen und institutionellen Praktiken zu befragen.
Dieses Heft, das Beiträge zum Schwerpunktthema Medien des Rechts versammelt, ist kein Heft wie jedes andere. Es ist unserer Kollegin Cornelia Vismann gewidmet, die am 28. August 2010 viel zu früh gestorben ist. Cornelia Vismann war von 2008 bis zu ihrem Tod Professorin für Geschichte und Theorie der Kulturtechniken an der Bauhaus-Universität Weimar. Sie hat dieser Professur ihr eigenes Profil verliehen, indem sie zum einen die Geschichte und Theorie des Rechts als eine Theorie und Geschichte von Kulturtechniken reformulierte, zum anderen aber auch die unhintergehbare rechtliche Relevanz – die Recht setzende Gewalt – von Kulturtechniken betonte und gezielt herausarbeitete. Dadurch hat sie der Sache und der Erforschung der Kulturtechniken eine unerhörte Dringlichkeit gegeben, eine Dringlichkeit, die ihr Verhältnis zur wissenschaftlichen Forschung und Lehre überhaupt widerspiegelt.
Focus Producing Places
(2014)
Producing places is a twofold topic. It can refer to places as sites that produce something, that are productive, that have operations unfold, or actions happen, or objects emerge. Or it can refer to the fabrication of places as specific entities themselves. With the extended availability and practicability of digital positioning, locating, and tracking systems, it has become evident that places are not just there, but that they are generated, that they are subject to mediatechnological operations and effects. Nonetheless, and at the same time, the aspect of places as being productive has also attracted considerable attention. Furthermore, in either perspective, a media-theoretical challenge has come up. It invests two different threads within the realm of conceptualizing not only space, but precisely place under conditions of media, both of them leading way back into the evolution of media societies and cultural technologies.
Schwerpunkt Offene Objekte
(2011)
Die ›Zeitschrift für Medien- und Kulturforschung‹ arbeitet an einer Standortbestimmung der Medien- und Kulturwissenschaft; in thematischer, methodischer und struktureller Hinsicht sowie nicht zuletzt in wissenschaftsgeschichtlicher Perspektive. In ihren letzten beiden Ausgaben hat sie verstärkt und konzentriert programmatische Aspekte der Medienphilosophie und der Kulturtechnikforschung ausgearbeitet und vorgestellt. Damit hat sie ihre Aufmerksamkeit auf spezifische – und möglicherweise innovative – Felder und Ansätze innerhalb des weiteren Geschehens der Medien- und Kulturwissenschaft gelenkt und eine Paradigmendiskussion aufgenommen. ...
Schwerpunkt Medien der Natur
(2016)
Der Schwerpunkt der vorliegenden Ausgabe der ZMK – Medien der Natur – scheint den Medienbegriff aus den Grenzen herauslösen zu wollen, die seine konventionelle Semantik ihm auferlegt hat: aus den Grenzen der Kultur und der Geschichte bzw. der Kulturgeschichte. Man greife zu einer beliebigen älteren oder neueren Mediengeschichte – mag sie mit der Feuertelegraphie in Aischylos’ Agamemnon oder mit den Höhlenmalereien von Lascaux beginnen, eins steht auf jeden Fall fest: Medien sind technische Apparaturen und Installationen, und das heißt von Menschen geschaffene Artefakte, Zeugnisse der menschlichen Kultur. Weder enthalten handelsübliche Mediengeschichten die Beschreibung der Genexprimierung, obwohl Molekularbiologen sich dabei eines explizit medientechnischen Vokabulars wie cut-and-paste oder copy-and-paste bedienen, noch feiern sie die evolutionären Errungenschaften der Tierwelt in Sachen Medientechnik. Dabei ist der Zeichenaustausch zwischen Tieren, der Singvögel etwa oder der in Schwärmen und Völkern lebenden Tiere wie der Bienen, Ameisen und Fische schon lange bekannt und bewundert. In bestimmten Fällen ist der Stand der signal intelligence der Tiere von den Menschen aber auch erst sehr spät, während des Zweiten Weltkriegs, eingeholt worden. Motten aus der Familie der Arctiidae zum Beispiel senden ultrasonische Impulse aus, wenn sie insektivore Fledermäuse detektieren. Die die Motte verfolgende Fledermaus empfängt zwischen den Echos ihres von der Motte reflektierten eigenen Signals die von der Motte gesendeten Signale, und schnappt mithin nach einem akustischen Simulacrum der Motte auf halbem Wege zwischen sich und der eigentlichen Beute. Immerhin hat Michel Serres mit dem Parasiten ein aus der Medientheorie nicht mehr wegzudenkendes Konzept geschaffen – und Parasiten sind auch im biologischen Sinne, etwa als Bakterien, in ersten Ansätzen zum Thema der kulturwissenschaftlichen Medienforschung geworden. Die Operationen der Parasiten können durchaus für die Medienforschung anschluss- und ausbaufähig werden, wie etwa im Konzept des Zwischenwirts. Der Egel Leucochloridium paradoxum zum Beispiel, dessen endlicher Wirt Insekten fressende Vögel sind, muss seinen Zwischenwirt, eine Schnecke, auf die insektivore Vögel keinen Appetit haben, optisch in eine Raupe verwandeln (indem er sich in die Augenfühler der Schnecke schiebt), um an sein Ziel (den Vogelmagen) zu kommen.
Focus Mediocene
(2018)
This issue, following an international conference held at the IKKM in September 2017, is devoted to what may very well be the broadest media-related topic possible, even if it is accessible only through exemplary and experimental approaches: Under the title of the »Mediocene«, it presents contributions which discuss the operations and functions that intertwine media and Planet Earth. The specific relation of media and Planet Earth likely found its most striking and iconic formula in the images of the earth from outer space in 1968/69, showing the earth—according to contemporaneous descriptions—in its brilliance and splendor as the »Blue Marble«, but also in its fragility and desperate loneliness against the black backdrop of the cosmic void. Not only the creation but also the incredible distribution of this image across the globe was already at the time clearly recognized as a media eff ect. In light of space fl ight and television technology, which had expanded the reach of observation, communication, and measurement beyond both the surface of the Earth and its atmosphere, it also became clearly evident that the Planet had been a product of the early telescope by the use of which Galileo found the visual proof for the Copernican world model. Nevertheless, the »Blue Marble« image of the planet conceives of Earth not only as a celestial body, but also as a global, ecological, and economic system. Satellite and spacecraft technology and imaging continue to move beyond Earth’s orbit even as they enable precise, small-scale procedures of navigation and observation on the surface of the planet itself. These instruments of satellite navigation aff ect practices like agriculture, urban planning, and political decision-making. Most recently, three-dimensional images featuring the planet’s surface (generated from space by Synthetic Aperture Radar) or pictures from space probes have been cir-culating on the Web, altering politico-geographical practices and popular and scientifi c knowledge of the cosmos. Today, media not only participate in the shaping of the planet, but also take place on a planetary scale. Communication systems have been installed that operate all over the globe.
Am 22. Januar 2017 wurde die Beraterin des amerikanischen Präsidenten, Kellyanne Conway, in einem Meet the Press-Interview gefragt, warum der Pressesprecher des Präsidenten kurz zuvor eine »nachweisliche Lüge« bezüglich der Zahl der in Washington zur Amtseinführung Trumps zusammengekommenen Menschen geäußert habe. Conway antwortete: »Our press secretary, Sean Spicer, gave alternative facts […]«. Das war nicht nur eine Manifestation oder Überbietung von Orwellianischem »Newspeak«. Es war ein Moment, in dem sich ein Bruch mit dem in der westlichen Kultur bislang allgemein anerkannten Paradigma, worin die Faktizität von Daten – seien es Bilder, Zahlen, Aussagen – gründet, offen aussprach. Es war sozusagen ein ironischer Moment der Wahrheit – ironisch, weil dieser Moment einen Höhepunkt des »Post-Truth«-Zeitalters darstellte.
Doch welche Wahrheit? Dass es dazu unterschiedliche und zum Teil kontroverse Auffassungen gibt, zeigen die verschiedenen Deutungen und Instrumentalisierungen, die dieser Moment der Wahrheit in der Folge erfuhr. Der Debattenteil der letzten Ausgabe der Zeitschrift für Medien- und Kulturforschung hat bereits einen Teil dieser Kontroverse um die Deutung des Phänomens von »fake news« und »alternative facts« dokumentiert. Der Schwerpunkt der vorliegenden Ausgabe setzt diese Kontroverse fort, und zwar deswegen, weil die Kultur- und Medienwissenschaft in mehrfacher Weise vom Ereignis »alternativer Fakten« und den sich anschließenden Kontroversen um ihre Bewertung herausgefordert wird. Sehr schnell wurde nämlich klar, dass die Antwort auf die Frage, welche Wahrheit sich in jenem Moment kundtat, als die Welt aus dem (sich dabei merklich verziehenden) Munde von Kellyanne Conway vom Wunder der Existenz alternativer Fakten erfuhr, nicht einfach nur banal war. So banal wie die Tatsache, dass ein infantiler Narzissmus zur Richtschnur für die Konstruktion der offiziellen amerikanischen Regierungsversion von Wirklichkeit geworden ist, ein Narzissmus, der das, was ist (und wofür es zureichende Gründe gibt), zugunsten dessen verwirft, von dem er möchte, dass es stattdessen sei.
Schwerpunkt Ontography
(2019)
Research in cultural techniques and media philosophy owe their existence to the fading and passing, the becoming impossible, and finally even the ban on ontology. Just like media history and media theory, they even represent a form of processing of this ending of ontology and a reaction to it. The concept of »Being«, the singular subject of all ontology, taken as unchangeable and as residing somewhere behind or even above all its realizations, concretions and manifestations in the materially existing world, had already been strongly suspected by positivism, vitalism and phenomenology, but had not yet been stripped off. Existential philosophy then ventured further, until finally a number of diverse schools of thought like Foucault’s history of knowledge or Derrida’s deconstruction, Quine’s logic, Heinz von Foerster’s constructivism, Luhmann’s functionalism, or process philosophy in the aftermath of Whitehead could definitively reject ontology with highly effective—albeit strongly diverging—reasons and arguments. These theories and philosophical schools did not agree on anything but on the rejection of ontology. Accordingly, the »ontological difference«, which provided that one could not speak about »Being« in the same way as about an existing being, had to be reconsidered. One solution was to project the ontological difference back into the multitude and materiality of the existing and to provide it with a new language of description and to read it against the backdrop of new types of questions. The offer that media theory and history, the cultural techniques approach, and media philosophy were able to make—successfully—in this situation was essentially a reappraisal not only of technics (»Die Technik«) in the ontological sense, but of technologies and techniques, of practices and their aesthetics. To use Heideggers terms, the focus was now set on »switching« (»Schalten«) rather than on »ruling« (»Walten«). The ban on ontology was nonetheless fully respected, and in cultural and media studies the observation of techniques and technologies, means and processes of the incessant self-differentiation of anything that is ruled out the persistent stunning standstill vis-à-vis the great ontological difference of Being and the existing beings.
Schwerpunkt Sendung
(2015)
Auch die Zeitschrift für Medien- und Kulturforschung erreicht ihre Leserinnen und Leser als Sendung, als Postgut auf dem Wege der Zustellung nämlich. Wer immer sie liest, hat also mit der Sendung zu tun. Allein das schon ist ein Grund, sich mit der Sendung zu befassen. Und ein gewichtiger Grund dazu: Phänomen und Begriff der Sendung haben, das leuchtet schon intuitiv jeder Postkundin, jedem Radiohörer, jedem Gottesdienstbesucher und jeder Goethe-Leserin ein, eine enorme medienwissenschaftliche Relevanz. Als empirischen, kulturtechnischen Sachverhalt kann man die Sendung – also etwa diese Ausgabe der ZMK – physisch in Händen halten (oder auch nicht, wenn die Postsache nicht ankommt), annehmen oder zurückweisen, man kann sie technisch, etwa als Druck- und Redaktionserzeugnis herstellen, sie aufgeben und abholen, verwalten und organisieren, sie bewirtschaften – aber die Sendung lässt sich auch fühlen, verspüren und bemerken, erfüllen und verfehlen, kann bewegen und berühren oder eben unberührt lassen. Ganz real affiziert und attachiert sie, richtet aus und sendet selbst. Als medienphilosophisches Konzept genommen, besitzt die Sendung folglich das Potential zur Entfaltung komplexer Grundannahmen der Medientheorie und zugleich zu ihrer reduzierenden Bündelung und Einfassung. Sie verbindet und durchkreuzt ganz grundsätzlich das begrifflich sorgsam Getrennte, zum Beispiel das Heilige und das Profane, das Materielle und das Immaterielle, das Aktive und das Passive. Sie ist darin ein genuin medienwissenschaftlicher Leitbegriff, an dem sich die gesamte Breite dessen, was Medium sein kann, entfalten lässt, von der Religion bis zum Massenmedium, von der Politik bis zum Postboten, von der Infrastruktur bis zur Entrückung. Sie erzeugt zudem in all ihrer Materialität mannigfaltige paradoxe und reflexive Verläufe – die Sendung überhaupt zu denken, heißt deshalb nicht zuletzt, selber senden und gesandt werden.
Schwerpunkt Inkarnieren
(2017)
Der Themenschwerpunkt des vorliegenden Heftes der Zeitschrift für Medien- und Kulturforschung wird bestritten von Autoren, die der DFG-Forschergruppe »Medien und Mimesis« angehören, die an der Bauhaus-Universität Weimar angesiedelt, aber zusätzlich über die Universitäten Basel, Bielefeld, Bochum, München und Zürich verteilt ist. Die Forschergruppe untersucht Mimesis als Kulturtechnik vor dem Hintergrund aktueller Entwicklungen in der Medienforschung, die Praktiken und Operationsketten als vorgängig gegenüber den aus ihnen hervorgehenden Subjekt-Objekt-Dichotomien bzw. Subjekt-Werkzeug-Artefakt-Kausalitäten ansehen. Die Auffassung von Mimesis als einer vielgestaltigen Kulturtechnik geht über die in den Kultur- und Literaturwissenschaften ebenso wie in der Philosophie dominierende ästhetische und epistemische Betrachtung der Mimesis hinaus und stellt das geschichtsphilosophische Selbstverständnis der Moderne als eine grundlegend a-mimetische kulturelle und soziale Formation infrage. Mimesis und imitatio werden nicht länger in die Perspektive einer zu ü berwindenden Vorgeschichte der Idee des schöpferischen Menschen und seiner Werkherrschaft gestellt (Blumenberg). Anstatt die Mimesis in einen Gegensatz zur modernen Technik und der auf ihr beruhenden Zivilisation zu manövrieren und das konstruktivistische Selbstverständnis der Neuzeit kulturell zu verallgemeinern und absolut zu setzen, gehen die Projekte der Forschergruppe auf unterschiedlichen Feldern den seinsverändernden, transformatorischen Wirkungen medial gekoppelter mimetischer Praktiken und Verhaltensweisen zwischen dem 15. und dem 21. Jahrhundert nach. ...
Schwerpunkt Textil
(2015)
Textil: Der Titel des Schwerpunkts der vorliegenden Ausgabe der ZMK kann ein Ding, ein Material oder eine Eigenschaft bezeichnen. Als Eigenschaftswort spezifiziert textil indes nicht nur bestimmte Künste näher (den Begriff der textilen Kunst gibt es spätestens seit Gottfried Semper) und umfasst so die Weberei, die Stickerei, das Flechten, Knoten, Stricken, Häkeln, Wirken und vieles andere mehr (Semper zufolge auch die Anfänge der Baukunst), sondern neuerdings auch Medien. Die Rede von den »textilen Medien« zielt offenbar auf einen anderen Aspekt des Medienbegriffs als denjenigen, der von der Trias »Speichern, Übertragen, Verarbeiten« gebildet wird, nämlich auf das Material, nicht auf die Funktion. Nun kann man einerseits diesen Medienbegriff einfach, wie etwa im Bereich der Kunstgeschichte üblich, im Sinne der Materialität eines Bildträgers verstehen. Andererseits jedoch lenkt die Rede von den »textilen Medien«, indem sie die Materialität anstelle der Funktionalität betont, den Fokus auf eine spezifische Medialität des Textilen und darüber hinaus auf eine Medialität des Materials überhaupt. Eben darin liegt der Grund für die seit einigen Jahren zu beobachtende enorme Konjunktur des Textilen in so unterschiedlichen Bereichen wie der Kunst, der Kunstwissenschaft oder der Technik- und Sozialanthropologie. In der Kunstöffentlichkeit belegen eine Reihe von Ausstellungen diese Konjunktur, wie zum Beispiel »Kunst & Textil« in Wolfsburg, »Textiles: Open Letter« in Mönchengladbach, »Decorum. Tapis et Tapisseries d’Artistes« in Paris, »Soft Pictures« in Turin oder »To Open Eyes. Kunst und Textil vom Bauhaus bis heute« in Bielefeld. ...
Schwerpunkt Verschwinden
(2016)
Warum, so fragt klassischerweise die Ontologie, ist überhaupt etwas und nicht vielmehr nichts? Die dieser Frage zu Grunde liegende Dichotomie von etwas und nichts, Sein und Nichtsein, ist aber selbst voraussetzungsreich und keineswegs zwingend selbstverständlich. Sie ist schon als Frage selbst etwas, das auch nicht sein könnte. Und von dieser Möglichkeit ist schon häufiger Gebrauch gemacht worden. Die scharfe Dichotomie von Sein und Nichtsein ist in der Antike etwa vom Atomismus Demokrits und Epikurs, vom Heraklitismus und den Eleaten, in der Moderne dann unter anderem von Lebenswissenschaften, Vitalismus, Historischem Materialismus, Phänomenologie und Ästhetik unterlaufen worden. Diese und andere Sichtweisen ersetzen die Alternative von Sein und Nichtsein durch die Frage nach dem Werden und Gewordensein, nach den Erscheinungsweisen und dem Erscheinen, nach der Produktion und dem Gemachtsein dessen, was ist (oder nicht ist). Damit öffnen sie das Feld für eine nachfolgende Umstellung der ontologischen Frage: Wie kommt das, was ist, zu Stande, wie ist es zum Sein gelangt, geworden, verfertigt, wie und wodurch zur Erscheinung gekommen? Gerade die letztgenannte Wendung bringt dann ganz unverstellt Medien und Medientechniken und deren Handhabung und Verfügung zur Sprache. Medien als Werkzeuge des Eintretens, Erscheinens oder Erscheinenlassens von etwas zu begreifen, ist demnach eine gängige und überzeugende Konzeption. Ebenso kann das Medium auch das Material sein, in dem sich das Eintreten und Heranbilden vollzieht und das an diesen Prozessen noch stets Anteil hat und ihnen mitwirkt.
Die vorliegende Ausgabe der Zeitschrift für Medien- und Kulturforschung verdankt sich einem Experiment. In Experimenten, wenigstens soweit es sich zunächst um künstlerische und philosophische Prozeduren handelt, geht es, frei nach Jean-François Lyotard, darum, herauszufinden, welchen Regeln die Verfahren selbst folgen, während man sie bereits anwendet, während man also danach sucht, welchen Regeln man folgt. In eben diesem Sinne bemüht sich das vorliegende Heft um eine Klärung des Verfahrens »operativer Ontologien«. Während in der Kunst das Werk selbst als eine dynamische Instanz der experimentellen Prozedur gelten kann, haben die Herausgeber hier jedoch einen etwas anderen Weg eingeschlagen, indem sie nämlich verschiedene Texte in einem experimentellen Bezugsrahmen angefragt – und wunderbarerweise auch erhalten haben. Wunderbarerweise deshalb, weil sowohl in Philosophie und Kunst als auch in den Wissenschaften jedes Experiment nicht nur mit der Freude am Aufbauen und Einstellen der Apparaturen, Instrumente und Dispositive, am Basteln also, sondern auch mit erheblicher Zumutung und vielleicht einem kleinen Wagnis verbunden ist. Zudem ist zum Zeitpunkt seiner Unternehmung über seinen Ausgang noch nicht das Geringste bekannt. Im vorliegenden Fall, denn die Veröffentlichung ist selbstverständlich das eigentliche Experiment, wissen wir alle also bis jetzt nichts über den Ausgang.
What you are about to read is the very last issue of the ZMK. Since our overall research enterprise, the IKKM, has to cease all of its activities due to the end of its twelve years’ funding by the German federal government, the ZMK will also come to an end. Its last topic, Schalten und Walten has also been the subject of the concluding biannual conference of the IKKM, and we hope it will be a fitting topic to resume the research of the IKKM on Operative Ontologies.
Although this final issue is in English, we decided to leave its title in German: Schalten und Walten. As it is the case for the name of the IKKM, (Internationales Kolleg für Kulturtechnikforschung und Medienphilosophie), the term seems untranslatable to us, not only for the poetic reason of the rhyming sound of the words. Switching and Ruling might be accepted as English versions, but quite an unbridgeable difference remains. In German, Schalten und Walten is a rather common and quite widespread idiom that can be found in everyday life. Whoever, the idiom stipulates, is able to execute Schalten und Walten has the power to act, has freedom of decision and power of disposition.
Although both terms are mentioned together and belong together in the German expression Schalten und Walten, they are nevertheless complements to each other. They both refer to the exercise and existence of domination, disposal or power, but they nonetheless designate two quite different modes of being. Schalten is not so much sheer command over something, but government or management. It is linked to control, intervention and change, in short: it is operative and goes along with distinctive measures and cause-and-effect relations. The English equivalent switching reflects this more or less adequately.
Schwerpunkt Angst
(2009)
Nach einem Jahrhundert ihres relativ soliden, fraglosen Bestehens sind die modernen Geisteswissenschaften seit etwa 25 Jahren einer tiefgreifenden Herausforderung ausgesetzt. Diese Herausforderung ist so epochal wie die Entstehung der Geisteswissenschaften selbst. Sie wurde und wird weiterhin weder von den exaktwissenschaftlichen Fakultäten noch von den Ökonomisierungsanfällen der Politik vorgetragen, sondern vielmehr vom Aufkommen eines ganz neuen Wissenstyps aus dem Herzen der philosophischen Fächer selbst.
Die Herausbildung und anschließende Institutionalisierung dieses neuen Wissenstyps geschah zunächst disparat und ist heute bei weitem noch nicht abgeschlossen. Aber er hat sich unter verschiedenen Bezeichnungen und in verschiedenen Verfassungen doch inzwischen nachdrücklich etabliert. Seine gewiss wirksamste Form hat dieser neue Wissenstyp und hat diese Herausforderung unter der Bezeichnung der Medien- und Kulturwissenschaft erfahren. Medien- und Kulturwissenschaft muss sich heute, anders als vor gut zwanzig Jahren, kaum mehr eigens behaupten. Die Frage ist nur noch, ob sie sich innerhalb des Kanons der Fächer der philosophischen Fakultät als ein weiteres Paradigma der Geisteswissenschaften durchsetzt oder aber außerhalb Platz findet, als Kompensationsunternehmen.
Schwerpunkt Blockchain
(2019)
Neue Medien rufen regelmäßig neue Utopien auf den Plan, die sich untereinander stark ähneln können. Regelmäßig bekommen wir eröffnet, dass, von den Uninformierten noch unbemerkt, eine Medienrevolution im Gange sei, die das Potenzial habe, die Welt grundlegend zu verändern. Diese Erwartungen gelten meistens einem in jeder Hinsicht umwälzenden Zuwachs an Gleichheit und Freiheit Aller. Meistens enden sie jedoch dann in der Feststellung eines Zuwachses an Geld und Macht in den Händen Weniger. So war es beim Radio, beim Video, beim Internet, bei den »sozialen Medien«. Und so ist es auch heute wieder. Eine Medienrevolution finde statt, so hört und liest man, die sich nicht auf kalifornischen Theaterbühnen oder auf Konsumentenelektronik-Messen wie der IFA in Gestalt neuer Gadgets öffentlich präsentiert. Sie spielt sich jenseits der Terminals im unsichtbaren Reich der Vernetzung ab und betrifft subkutan die mediale Instituiertheit der Gesellschaft selbst: die Blockchain.
Städten kam bei demokratischen Innovationsprozessen immer eine zentrale Rolle zu. Die öffentlichen Verwaltungen der großen Städte stellten Regeln für die Einführung und Ausweitung der bürgerschaftlichen Partizipation auf und reagierten damit auf Erfahrungen und Forderungen, die von der schöpferischen politischen Kraft der sozialen und urbanen Bewegungen getragen wurden. Die Geschichte Barcelonas ist dafür ein typisches Beispiel.
Dank dieser sozialen Errungenschaften können wir von einer Reihe von Gütern und Dienstleistungen profitieren, die lokale Wohlfahrtssysteme ausmachen. Die Stadtverwal-tungen übernehmen die Aufgabe, Ressourcen und Dienstleistungen bereitzustellen, die nicht nur mit Wohlfahrt und Gesundheit in Verbindung stehen, sondern auch mit der Sorge um Umfeld und Umwelt, mit der Förderung von Maßnahmen in Bereichen wie Bildung, Kultur, Kunst oder Sport sowie mit der Dynamisierung von Wirtschaft und Gesellschaft. Ob zuständig oder nicht, die Kommunen müssen auf die Forderungen der Bürger*innen reagieren, sind sie doch die Verwaltungen, die den alltäglichen Problemen und Bedürfnissen am nächsten stehen. Daher liegt es weniger im Belieben der Stadtverwaltungen, ob sie notwendige Innova¬tionen anstoßen, sondern diese sind vielmehr Teil ihres Aufgabenbereichs.
Um den Bedürfnissen der Bürger*innen seitens der öffentlichen Verwaltung gerecht zu werden, kam in den meisten Fällen eine von zwei Methoden zur Anwendung: die direkte Verwaltung durch die Behörden oder die indirekte Verwaltung mit dem privaten Sektor. Mit dem Anbruch einer neuen Zeit, in der alternative Methoden an Bedeutung gewonnen haben, wächst das Interesse an Modellen öffentlich-zivilgesellschaftlicher Zusammenarbeit. Hauptziel dieser Modelle ist es, Verwaltungen und Bürgerschaft eine Zusammenarbeit im gemeinsamen und allgemeinen Interesse zu ermöglichen, indem Projekte unterstützt werden, die Zugang, Nähe und Partizipation in sich vereinen. Vor diesem Hintergrund bietet die Verwaltung öffent¬licher Ressourcen Möglichkeiten zur Entwicklung neuer Formen kollektiver Intelligenz, mit ge¬meinsamer Verantwortung und Synergie zwischen Institution und Bürgerschaft, sodass die Städte zu wahrhaft kooperativen Plattformen für öffentliche Innovationen werden.
The phenomenon of aerodynamic instability caused by the wind is usually a major design criterion for long-span cable-supported bridges. If the wind speed exceeds the critical flutter speed of the bridge, this constitutes an Ultimate Limit State. The prediction of the flutter boundary, therefore, requires accurate and robust models. The complexity and uncertainty of models for such engineering problems demand strategies for model assessment. This study is an attempt to use the concepts of sensitivity and uncertainty analyses to assess the aeroelastic instability prediction models for long-span bridges. The state-of-the-art theory concerning the determination of the flutter stability limit is presented. Since flutter is a coupling of aerodynamic forcing with a structural dynamics problem, different types and classes of structural and aerodynamic models can be combined to study the interaction. Here, both numerical approaches and analytical models are utilised and coupled in different ways to assess the prediction quality of the coupled model.
The assessment of wind-induced vibrations is considered vital for the design of long-span bridges. The aim of this research is to develop a methodological framework for robust and efficient prediction strategies for complex aerodynamic phenomena using hybrid models that employ numerical analyses as well as meta-models. Here, an approach to predict motion-induced aerodynamic forces is developed using artificial neural network (ANN). The ANN is implemented in the classical formulation and trained with a comprehensive dataset which is obtained from computational fluid dynamics forced vibration simulations. The input to the ANN is the response time histories of a bridge section, whereas the output is the motion-induced forces. The developed ANN has been tested for training and test data of different cross section geometries which provide promising predictions. The prediction is also performed for an ambient response input with multiple frequencies. Moreover, the trained ANN for aerodynamic forcing is coupled with the structural model to perform fully-coupled fluid--structure interaction analysis to determine the aeroelastic instability limit. The sensitivity of the ANN parameters to the model prediction quality and the efficiency has also been highlighted. The proposed methodology has wide application in the analysis and design of long-span bridges.
Long-span cable supported bridges are prone to aerodynamic instabilities caused by wind and this phenomenon is usually a major design criterion. If the wind speed exceeds the critical flutter speed of the bridge, this constitutes an Ultimate Limit State. The prediction of the flutter boundary therefore requires accurate and robust models. This paper aims at studying various combinations of models to predict the flutter phenomenon.
Since flutter is a coupling of aerodynamic forcing with a structural dynamics problem, different types and classes of models can be combined to study the interaction. Here, both numerical approaches and analytical models are utilised and coupled in different ways to assess the prediction quality of the hybrid model. Models for aerodynamic forces employed are the analytical Theodorsen expressions for the motion-enduced aerodynamic forces of a flat plate and Scanlan derivatives as a Meta model. Further, Computational Fluid Dynamics (CFD) simulations using the Vortex Particle Method (VPM) were used to cover numerical models.
The structural representations were dimensionally reduced to two degree of freedom section models calibrated from global models as well as a fully three-dimensional Finite Element (FE) model. A two degree of freedom system was analysed analytically as well as numerically.
Generally, all models were able to predict the flutter phenomenon and relatively close agreement was found for the particular bridge. In conclusion, the model choice for a given practical analysis scenario will be discussed in the context of the analysis findings.
Due to the importance of identifying crop cultivars, the advancement of accurate assessment of cultivars is considered essential. The existing methods for identifying rice cultivars are mainly time-consuming, costly, and destructive. Therefore, the development of novel methods is highly beneficial. The aim of the present research is to classify common rice cultivars in Iran based on color, morphologic, and texture properties using artificial intelligence (AI) methods. In doing so, digital images of 13 rice cultivars in Iran in three forms of paddy, brown, and white are analyzed through pre-processing and segmentation of using MATLAB. Ninety-two specificities, including 60 color, 14 morphologic, and 18 texture properties, were identified for each rice cultivar. In the next step, the normal distribution of data was evaluated, and the possibility of observing a significant difference between all specificities of cultivars was studied using variance analysis. In addition, the least significant difference (LSD) test was performed to obtain a more accurate comparison between cultivars. To reduce data dimensions and focus on the most effective components, principal component analysis (PCA) was employed. Accordingly, the accuracy of rice cultivar separations was calculated for paddy, brown rice, and white rice using discriminant analysis (DA), which was 89.2%, 87.7%, and 83.1%, respectively. To identify and classify the desired cultivars, a multilayered perceptron neural network was implemented based on the most effective components. The results showed 100% accuracy of the network in identifying and classifying all mentioned rice cultivars. Hence, it is concluded that the integrated method of image processing and pattern recognition methods, such as statistical classification and artificial neural networks, can be used for identifying and classification of rice cultivars.
Integrated structural engineering system usually consists of large number of design objects that may be distributed across different platforms. These design objects need to communicate data and information among each other. For efficient communication among design objects a common communication protocol need to be defined. This paper presents the elements of a communication protocol that uses a mediator agent to facilitate communication among design objects. This protocol is termed the Mediative Communication Protocol (MCP). The protocol uses certain design communication performatives and the semantics of an Agent Communication language (ACL) mainly the Knowledge and Query Manipulation Language (KQML) to implement its steps. Details of a Mediator Agent, that will facilitate the communication among design objects, is presented. The Unified Modeling Language (UML) is used to present the Meditative protocol and show how the mediator agent can be use to execute the steps of the meditative communication protocol. An example from structural engineering application is presented to demonstrate and validate the protocol. It is concluded that the meditative protocol is a viable protocol to facilitate object-to-object communication and also has potential to facilitate communication among the different project participants at the higher level of integrated structural engineering systems.
Identification of modal parameters of a space frame structure is a complex assignment due to a large number of degrees of freedom, close natural frequencies, and different vibrating mechanisms. Research has been carried out on the modal identification of rather simple truss structures. So far, less attention has been given to complex three-dimensional truss structures. This work develops a vibration-based methodology for determining modal information of three-dimensional space truss structures. The method uses a relatively complex space truss structure for its verification. Numerical modelling of the system gives modal information about the expected vibration behaviour. The identification process involves closely spaced modes that are characterised by local and global vibration mechanisms. To distinguish between local and global vibrations of the system, modal strain energies are used as an indicator. The experimental validation, which incorporated a modal analysis employing the stochastic subspace identification method, has confirmed that considering relatively high model orders is required to identify specific mode shapes. Especially in the case of the determination of local deformation modes of space truss members, higher model orders have to be taken into account than in the modal identification of most other types of structures.
The intention of this thesis is first, to determine material constants of ductile cast irons (EN-GJS-400-15,EN-GJS-500-7, EN-GJS-600-3) for estimating fatigue damage. These constants are obtained from experimental results. These results are stress versus strain tests, strain versus crack initiation life tests,and consequently, Smith, Watson and Topper damage parameter, PSWT can be calculated. Using data fitting, the constants can be estimated, thus Uniform Material Law for ductile cast irons is fulfilled. Endurance limit stress is obtained based on research report termed Synthetic Wöhler Lines(SWL).It is found out that the endurance limit stress is a function of yield limit stress. Endurance life cycle is set as three millions for the three materials. Secondly, fatigue life assessment is done for diesel engine pump part made of the three ductile cast irons. Finite element calculation is done to get elastic stress concentration factor, Kt, and plastic notch factor Kp. Neuber ´s rule is used to determine local stress at notch subjected to constant amplitude load test and variable amplitude loading. The constant amplitude loading is conducted at a stress ratio of R=0 on the pump part. The test results show that fatigue life assessment based on the material constants is accurate. On the basis of the accuracy of constant amplitude test results, it is possible to determine for fatigue life for variable amplitude loading which is the real loading on the pump part. The variable amplitude loading is normally standardized for computational efficiency. This standardized loading is termed as CORAL (COmmon RAil Loading) sequence. CORAL is used to calculate fatigue life of pump part and is inputted to a Fatigue Life Evaluation computer program. This program uses rain flow cycle counting method. It can be concluded that the material constants for ductile cast irons fit well which is proved by experimental tests by constant amplitude loading on pump part. Then life prediction can be done for the typical pump loading, standardized variable amplitude loading known as CORAL
The thesis investigates at the computer aided simulation process for operational vibration analysis of complex coupled systems. As part of the internal methods project “Absolute Values” of the BMW Group, the thesis deals with the analysis of the structural dynamic interactions and excitation interactions. The overarching aim of the methods project is to predict the operational vibrations of engines.
Simulations are usually used to analyze technical aspects (e. g. operational vibrations, strength, ...) of single components in the industrial development. The boundary conditions of submodels are mostly based on experiences. So the interactions with neighboring components and systems are neglected. To get physically more realistic results but still efficient simulations, this work wants to support the engineer during the preprocessing phase by useful criteria.
At first suitable abstraction levels based on the existing literature are defined to identify structural dynamic interactions and excitation interactions of coupled systems. So it is possible to separate different effects of the coupled subsystems. On this basis, criteria are derived to assess the influence of interactions between the considered systems. These criteria can be used during the preprocessing phase and help the engineer to build up efficient models with respect to the interactions with neighboring systems. The method was developed by using several models with different complexity levels. Furthermore, the method is proved for the application in the industrial environment by using the example of a current combustion engine.
The design of engineering structures takes place today and in the past on the basis of static calculations. The consideration of uncertainties in the model quality becomes more and more important with the development of new construction methods and design requirements. In addition to the traditional forced-based approaches, experiences and observations about the deformation behavior of components and the overall structure under different exposure conditions allow the introduction of novel detection and evaluation criteria.
The proceedings at hand are the result from the Bauhaus Summer School Course: Forecast Engineering held at the Bauhaus-Universität Weimar, 2017. It summarizes the results of the conducted project work, provides the abstracts of the contributions by the participants, as well as impressions from the accompanying programme and organized cultural activities.
The special character of this course is in the combination of basic disciplines of structural engineering with applied research projects in the areas of steel and reinforced concrete structures, earthquake and wind engineering as well as informatics and linking them to mathematical methods and modern tools of visualization. Its innovative character results from the ambitious engineering tasks and advanced
modeling demands.
Institute of Structural Engineering, Institute of Structural Mechanics, as well as Institute for Computing, Mathematics and Physics in Civil Engineering at the faculty of civil engineering at the Bauhaus-Universität Weimar presented special topics of structural engineering to highlight the broad spectrum of civil engineering in the field of modeling and simulation.
The summer course sought to impart knowledge and to combine research with a practical context, through a challenging and demanding series of lectures, seminars and project work. Participating students were enabled to deal with advanced methods and its practical application.
The extraordinary format of the interdisciplinary summer school offers the opportunity to study advanced developments of numerical methods and sophisticated modelling techniques in different disciplines of civil engineering for foreign and domestic students, which go far beyond traditional graduate courses.
The proceedings at hand are the result from the Bauhaus Summer School course: Forecast Engineering held at the Bauhaus-Universität Weimar, 2018. It summarizes the results of the conducted project work, provides the abstracts/papers of the contributions by the participants, as well as impressions from the accompanying programme and organized cultural activities.
The characteristic values of climatic actions in current structural design codes are based on a specified probability of exceedance during the design working life of a structure. These values are traditionally determined from the past observation data under a stationary climate assumption. However, this assumption becomes invalid in the context of climate change, where the frequency and intensity of climatic extremes varies with respect to time. This paper presents a methodology to calculate the non-stationary characteristic values using state of the art climate model projections. The non-stationary characteristic values are calculated in compliance with the requirements of structural design codes by forming quasi-stationary windows of the entire bias-corrected climate model data. Three approaches for the calculation of non-stationary characteristic values considering the design working life of a structure are compared and their consequences on exceedance probability are discussed.
In the superelliptic shell joined to a circular cylinder bending stresses are absent when it is subjected to uniform pressure.Some geometrical characteristics have been found. Expressions for determining stresses in the shell crest(in the singular point of plane type) are suggested. The problem of a theoretical critical buckling load of an elongated shell supported by frames is studied. A critical buckling load for two shells with different specifications was found experimentally.
A method of automatic maintenance of vibration amplitude of a number of mechanisms at given level, when exiting force amplitude is varied greatly is given. For this purpose a pendulum is attached to a mechanism through a viscoelastic hinge. Load of a pendulum can move along an arm and it is viscoelastic connected to it.
Fuzzy functions are suitable to deal with uncertainties and fuzziness in a closed form maintaining the informational content. This paper tries to understand, elaborate, and explain the problem of interpolating crisp and fuzzy data using continuous fuzzy valued functions. Two main issues are addressed here. The first covers how the fuzziness, induced by the reduction and deficit of information i.e. the discontinuity of the interpolated points, can be evaluated considering the used interpolation method and the density of the data. The second issue deals with the need to differentiate between impreciseness and hence fuzziness only in the interpolated quantity, impreciseness only in the location of the interpolated points and impreciseness in both the quantity and the location. In this paper, a brief background of the concept of fuzzy numbers and of fuzzy functions is presented. The numerical side of computing with fuzzy numbers is concisely demonstrated. The problem of fuzzy polynomial interpolation, the interpolation on meshes and mesh free fuzzy interpolation is investigated. The integration of the previously noted uncertainty into a coherent fuzzy valued function is discussed. Several sets of artificial and original measured data are used to examine the mentioned fuzzy interpolations.
This study permits a reliability analysis to solve the mechanical behaviour issues existing in the current structural design of fabric structures. Purely predictive material models are highly desirable to facilitate an optimized design scheme and to significantly reduce time and cost at the design stage, such as experimental characterization.
The present study examined the role of three major tasks; a) single-objective optimization, b) sensitivity analyses and c) multi-objective optimization on proposed weave structures for woven fabric composites. For single-objective optimization task, the first goal is to optimize the elastic properties of proposed complex weave structure under unit cells basis based on periodic boundary conditions.
We predict the geometric characteristics towards skewness of woven fabric composites via Evolutionary Algorithm (EA) and a parametric study. We also demonstrate the effect of complex weave structures on the fray tendency in woven fabric composites via tightness evaluation. We utilize a procedure which does not require a numerical averaging process for evaluating the elastic properties of woven fabric composites. The fray tendency and skewness of woven fabrics depends upon the behaviour of the floats which is related to the factor of weave. Results of this study may suggest a broader view for further research into the effects of complex weave structures or may provide an alternative to the fray and skewness problems of current weave structure in woven fabric composites.
A comprehensive study is developed on the complex weave structure model which adopts the dry woven fabric of the most potential pattern in singleobjective optimization incorporating the uncertainties parameters of woven fabric composites. The comprehensive study covers the regression-based and variance-based sensitivity analyses. The second task goal is to introduce the fabric uncertainties parameters and elaborate how they can be incorporated into finite element models on macroscopic material parameters such as elastic modulus and shear modulus of dry woven fabric subjected to uni-axial and biaxial deformations. Significant correlations in the study, would indicate the need for a thorough investigation of woven fabric composites under uncertainties parameters. The study describes here could serve as an alternative to identify effective material properties without prolonged time consumption and expensive experimental tests.
The last part focuses on a hierarchical stochastic multi-scale optimization approach (fine-scale and coarse-scale optimizations) under geometrical uncertainties parameters for hybrid composites considering complex weave structure. The fine-scale optimization is to determine the best lamina pattern that maximizes its macroscopic elastic properties, conducted by EA under the following uncertain mesoscopic parameters: yarn spacing, yarn height, yarn width and misalignment of yarn angle. The coarse-scale optimization has been carried out to optimize the stacking sequences of symmetric hybrid laminated composite plate with uncertain mesoscopic parameters by employing the Ant Colony Algorithm (ACO). The objective functions of the coarse-scale optimization are to minimize the cost (C) and weight (W) of the hybrid laminated composite plate considering the fundamental frequency and the buckling load factor as the design constraints.
Based on the uncertainty criteria of the design parameters, the appropriate variation required for the structural design standards can be evaluated using the reliability tool, and then an optimized design decision in consideration of cost can be subsequently determined.
Die Zonenmethode nach Hertz ist ein vereinfachtes Verfahren zur Heißbemessung von Stahlbetonbauteilen. Um eine händische Bemessung zu ermöglichen, werden daher verschiedene Annahmen und Vereinfachungen getroffen. Insbesondere werden die thermischen Dehnungen vernachlässigt und das mechanische Verhalten durch einen verkleinerten Querschnitt mit konstanten Stoffeigenschaften beschrieben.
Ziel der vorliegenden Arbeit ist, dieses vereinfachte Verfahren in ein nichtlineares Verfahren zur Heißbemessung von Stahlbetondruckgliedern bei Brandbeanspruchung durch die Einheits-Temperaturzeitkurve zu überführen. Dazu werden die wesentlichen Annahmen der Zonenmethode überprüft und ein Vorschlag zur Weiterentwicklung vorgestellt. Dieser beruht im Wesentlichen auf der Modellierung der druckbeanspruchten Bewehrung. Diese weiterentwickelte Zonenmethode wird durch die Nachrechnung von Laborversuchen validiert und das Sicherheitsniveau durch eine vollprobabilistische Analyse und den Vergleich mit dem allgemeinen Verfahren bestimmt.
The fire resistance of concrete members is controlled by the temperature distribution of the considered cross section. The thermal analysis can be performed with the advanced temperature dependent physical properties provided by 5EN6 1992-1-2. But the recalculation of laboratory tests on columns from 5TU6 Braunschweig shows, that there are deviations between the calculated and measured temperatures. Therefore it can be assumed, that the mathematical formulation of these thermal properties could be improved. A sensitivity analysis is performed to identify the governing parameters of the temperature calculation and a nonlinear optimization method is used to enhance the formulation of the thermal properties. The proposed simplified properties are partly validated by the recalculation of measured temperatures of concrete columns. These first results show, that the scatter of the differences from the calculated to the measured temperatures can be reduced by the proposed simple model for the thermal analysis of concrete.
We demonstrate how logical operations can be implemented in ensembles of protoplasmic tubes of acellular slime mold Physarum polycephalum. The tactile response of the protoplasmic tubes is used to actuate analogs of two- and four-input logical gates and memory devices. The slime mold tube logical gates display results of logical operations by blocking flow in mechanically stimulated tube fragments and redirecting the flow to output tube fragments. We demonstrate how XOR and NOR gates are constructed. We also exemplify circuits of hybrid gates and a memory device. The slime mold based gates are non-electronic, simple and inexpensive, and several gates can be realized simultaneously at sites where protoplasmic tubes merge.
Das Ziel der vorliegenden Arbeit besteht in der Entwicklung einer Strategie zur physikalisch nichtlinearen Analyse von Aussteifungssystemen. Der Anwendungsschwerpunkt umfasst neben dem traditionellen Aufgabenumfang zur Analyse neu zu errichtender Tragwerke gleichzeitig auch Planungsaufgaben, die mit Umbau- und Sanierungsmaßnahmen verbunden sind. Veränderungen, die sich während der Nutzungsgeschichte oder im Revitalisierungsprozess ergeben, werden in den Berechnungsmodellen berücksichtigt. In vielen Fällen ist es aus planerischer Sicht zweckmäßig, die Nichtlinearität des Materialverhaltens zur Erschließung von Tragreserven in den normativen Nachweiskonzepten mit einzubeziehen. Der damit verbundene numerische Aufwand wird durch die Verwendung separater Modelle zur Erfassung des Querschnitts- und des Systemtragverhaltens begrenzt, ohne die Komplexität der Aufgabenstellung zu reduzieren. Aus detaillierten Querschnittsuntersuchungen der Tragwände werden integrale Materialbeziehungen abgeleitet, welche die Grundlage für die nichtlineare Tragwerksanalyse darstellen. Die Modellbildung gegliederter Aussteifungswände basiert auf deren Zerlegung in ebene finite Stabsegmente, die sich durch die Diskretisierung in Längs- und in Querrichtung ergeben. Zusätzlich zu den an den Stabenden angreifenden Normalkräften, Querkräften und Biegemomenten werden an den Elementlängsrändern Schubbeanspruchungen erfasst. Die physikalische Nichtlinearität wird durch die Einbeziehung integraler Materialbeziehungen an den Segmenträndern berücksichtigt. Die numerische Umsetzung erfolgt mit Methoden der mathematischen Optimierung. Die Leistungsfähigkeit der Berechnungsstrategie wird exemplarisch anhand von Untersuchungen an Aussteifungssystemen in Großtafelbauweise nachgewiesen.
This paper concerns schedule synchronization problems in public transit networks. In particular, it consists of three main parts. In the first the subject area is introduced, the terms are defined and framework for optimal synchronization in the form of problem representation and formulation is proposed. The second part is devoted to transfer synchronization problem when passengers changing transit lines at transfer points. The intergrated Tabu Search and Genetic solution method is developed with respect to this specific problem. The third part deals with headways harmonization problem i.e. synchronization of different transit lines schedules on a common segments of routes. For the solution of this problem a new bilevel optimization method is proposed with zones harmonization at the bottom level and co-ordination of zones, by time buffers assigned to timing points, at the upper level. Finally, the synchronization problems are numerically illustrated by real-life examples of the public transport lines in Cracow.
In vielen Leichtbauanwendungen ist der begrenzende Faktor die Schwingungsanfälligkeit der Bauteile. Eine Möglichkeit der Begrenzung von Schwingungsamplituden ist der gezielte Einsatz von Reibungsdämpfung in Leichtbaustrukturen. In dieser Arbeit wird der Einfluss dieser Art von Energiedissipation auf Leichtmetallstrukturen sowie topologieoptimierte Bauteil untersucht. Betrachtet werden dabei die Positionierung, Dimensionierung sowie die Reibeigenschaften dissipativer Elemente.
Different types of data provide different type of information. The present research analyzes the error on prediction obtained under different data type availability for calibration. The contribution of different measurement types to model calibration and prognosis are evaluated. A coupled 2D hydro-mechanical model of a water retaining dam is taken as an example. Here, the mean effective stress in the porous skeleton is reduced due to an increase in pore water pressure under drawdown conditions. Relevant model parameters are identified by scaled sensitivities. Then, Particle Swarm Optimization is applied to determine the optimal parameter values and finally, the error in prognosis is determined. We compare the predictions of the optimized models with results from a forward run of the reference model to obtain the actual prediction errors. The analyses presented here were performed calibrating the hydro-mechanical model to 31 data sets of 100 observations of varying data types. The prognosis results improve when using diversified information for calibration. However, when using several types of information, the number of observations has to be increased to be able to cover a representative part of the model domain. For an analysis with constant number of observations, a compromise between data type availability and domain coverage proves to be the best solution. Which type of calibration information contributes to the best prognoses could not be determined in advance. The error in model prognosis does not depend on the error in calibration, but on the parameter error, which unfortunately cannot be determined in inverse problems since we do not know its real value. The best prognoses were obtained independent of calibration fit. However, excellent calibration fits led to an increase in prognosis error variation. In the case of excellent fits; parameters' values came near the limits of reasonable physical values more often. To improve the prognoses reliability, the expected value of the parameters should be considered as prior information on the optimization algorithm.
Mobile Software-Agenten für neuartige Funktionen und Nutzeffekte in intelligenten Gebäudesystemen
(2003)
Anwendungsbezogene Software innerhalb vernetzter Gebäude nimmt immer mehr zu. Neue Standards erlauben den einfachen Fernzugriff, um neue Services zu installieren oder um Updates aufspielen zu können. Zu diesem Thema wird der OSGi-Standard vorgestellt, der ein Management von Software während des Betriebs vornehmen kann. Außerdem nimmt die Netzlast der heterogenen Netze innerhalb und zu den Häusern stetig zu. Hier können mobile Softwareagenten ihre Vorteile gegenüber herkömmlichen, statischen Kommunikationsmechanismen hervorheben. Im folgenden Text wird die Integration solcher mobilen Softwareagenten in bestehende Standards intelligenter Häuser beschrieben und anhand des Innovationszentrum Intelligentes Haus Duisburg (www.inhaus-duisburg.de) beispielhaft erläutert. Nach der Einleitung wird in Kapitel 2 der aktuelle Stand der Technik beschrieben. Dabei wird vor allem auf den OSGi-Standard und die Technik der mobilen Softwareagenten eingegangen. Im Kapitel 3 wird stehen vor allem Voranalysen zur Fernwartung, Optimierungen von Regelungen und die Integration dynamischer Netzteilnehmer im Vordergrund, die durch die beschriebenen Mechanismen erleichtert werden. Im Kapitel 4 werden die Ergebnisse kurz zusammengefaßt und einen Ausblick gegeben.
Environmental and operational variables and their impact on structural responses have been acknowledged as one of the most important challenges for the application of the ambient vibration-based damage identification in structures. The damage detection procedures may yield poor results, if the impacts of loading and environmental conditions of the structures are not considered.
The reference-surface-based method, which is proposed in this thesis, is addressed to overcome this problem. In the proposed method, meta-models are used to take into account significant effects of the environmental and operational variables. The usage of the approximation models, allows the proposed method to simply handle multiple non-damaged variable effects simultaneously, which for other methods seems to be very complex. The input of the meta-model are the multiple non-damaged variables while the output is a damage indicator.
The reference-surface-based method diminishes the effect of the non-damaged variables to the vibration based damage detection results. Hence, the structure condition that is assessed by using ambient vibration data at any time would be more reliable. Immediate reliable information regarding the structure condition is required to quickly respond to the event, by means to take necessary actions concerning the future use or further investigation of the structures, for instance shortly after extreme events such as earthquakes.
The critical part of the proposed damage detection method is the learning phase, where the meta-models are trained by using input-output relation of observation data. Significant problems that may encounter during the learning phase are outlined and some remedies to overcome the problems are suggested.
The proposed damage identification method is applied to numerical and experimental models. In addition to the natural frequencies, wavelet energy and stochastic subspace damage indicators are used.
In this paper, wavelet energy damage indicator is used in response surface methodology to identify the damage in simulated filler beam railway bridge. The approximate model is addressed to include the operational and surrounding condition in the assessment. The procedure is split into two stages, the training and detecting phase. During training phase, a so-called response surface is built from training data using polynomial regression and radial basis function approximation approaches. The response surface is used to detect the damage in structure during detection phase. The results show that the response surface model is able to detect moderate damage in one of bridge supports while the temperatures and train velocities are varied.
In this study, machine learning methods of artificial neural networks (ANNs), least squares support vector machines (LSSVM), and neuro-fuzzy are used for advancing prediction models for thermal performance of a photovoltaic-thermal solar collector (PV/T). In the proposed models, the inlet temperature, flow rate, heat, solar radiation, and the sun heat have been considered as the input variables. Data set has been extracted through experimental measurements from a novel solar collector system. Different analyses are performed to examine the credibility of the introduced models and evaluate their performances. The proposed LSSVM model outperformed the ANFIS and ANNs models. LSSVM model is reported suitable when the laboratory measurements are costly and time-consuming, or achieving such values requires sophisticated interpretations.
We give a sufficient and a necessary condition for an analytic function "f" on the unit disk "D" with Hadamard gap to belong to a class of weighted logarithmic Bloch space as well as to the corresponding little weighted logarithmic Bloch space under some conditions posed on the defined weight function. Also, we study the relations between the class of weighted logarithmic Bloch functions and some other classes of analytic functions by the help of analytic functions in the Hadamard gap class.
In this Thesis we study some complex and hypercomplex function spaces and classes such as hypercomplex Besov spaces, Bloch space and Op spaces as well as the class of basic sets of polynomials in several complex variables. It is shown that hyperholomorphic Besov spaces can be applied to characterize the hyperholomorphic Bloch space. Moreover, we consider BMOM and VMOM spaces.
In this study we introduce a concept of discrete Laplacian on the plane lattice and consider its iteration dynamical system. At first we discuss some basic properties on the dynamical system to be proved. Next making their computer simulations, we show that we can realize the following phenomena quite well:(1) The crystal of waters (2) The designs of carpets, embroideries (3) The time change of the numbers of families of extinct animals, and (4) The echo systems of life things. Hence we may expect that we can understand the evolutions and self organizations by use of the dynamical systems. Here we want to make a stress on the following fact: Although several well known chaotic dynamical systems can describe chaotic phenomena, they have difficulties in the descriptions of the evolutions and self organizations.
Vertical green system for gray water treatment: Analysis of the VertiKKA-module in a field test
(2022)
This work presents a modular Vertical Green System (VGS) for gray water treatment, developed at the Bauhaus-Universität Weimar. The concept was transformed into a field study with four modules built and tested with synthetic gray water. Each module set contains a small and larger module with the same treatment substrate and was fed hourly. A combination of lightweight structural material and biochar of agricultural residues and wood chips was used as the treatment substrate. In this article, we present the first 18 weeks of operation. Regarding the treatment efficiency, the parameters chemical oxygen demand (COD), total phosphorous (TP), ortho-phosphate (ortho-P), total bound nitrogen (TNb), ammonium nitrogen (NH4-N), and nitrate nitrogen (NO3-N) were analyzed and are presented in this work. The results of the modules with agricultural residues are promising. Up to 92% COD reduction is stated in the data. The phosphate and nitrogen fractions are reduced significantly in these modules. By contrast, the modules with wood chips reduce only 67% of the incoming COD and respectively less regarding phosphates and the nitrogen fraction.
Der Komplexität einer großen Baumaßnahme steht meist ein relativ unpräzises Termincontrolling gegenüber. Die Gründe dafür liegen in unzureichenden Baufortschrittsinformationen und der Schwierigkeit, eine geeignete Steuerungsmaßnahme auszuwählen. In der Folge kommt es häufig zu Terminverzügen und Mehrkosten.
Ziel der Arbeit war es, die realen Bau-Ist-Zustände eines Bauprojektes so genau zu erfassen, dass es möglich wird, täglich ein zutreffendes Abbild des Baufortschrittes und der Randbedingungen des Bauablaufes zu schaffen und mit Hilfe eines Simulationswerkzeuges nachzubilden. Zu diesem Zweck sollte ein Erfassungskonzept ausgearbeitet werden, mit dessen Hilfe unter Verwendung von Erfassungstechniken aussagekräftige sowie belastbare Daten zu einer auf die Anforderungen der Simulation abgestimmten Datenbasis zusammengeführt werden.
Um der Zielstellung gerecht zu werden, wurde anhand eines Beispiels ein Prozessmodell aufgebaut und definiert, welche Informationen zum Aufbau eines Simulationsmodells, das die reaktive Ablaufplanung unterstützt, erfasst werden müssen. Die einzelnen Prozessgrößen wurden detailliert beschrieben und die Erfassungsgrößen daraus abgeleitet. Weiterhin wurden Aussagen zur Prozessstrukturierung erarbeitet. Somit wurden Informationsstützstellen definiert.
Es wurden Methoden zur Erfassung des Bau-Ist-Zustandes hinsichtlich ihrer Eignung sowie Anwendungsmöglichkeiten analysiert und ausgewählte Anwendungsbeispiele für RFID, Barcodes und Bautagebücher dargestellt. Außerdem wurde betrachtet, welche Daten der baustelleneigenen Bauablaufdokumentation zur Belegung der Informationsstützstellen genutzt werden können. Diese Betrachtung stellte Dokumente in den Fokus, welche aufgrund von Vorschriften oder Vertragsbedingungen ohnehin auf Baustellen erfasst werden müssen.
Schließlich wurden die vorangegangenen Betrachtungen hinsichtlich der Erfassungsgrößen und der Erfassungsmethoden in einem Erfassungskonzept zusammengeführt und eine geeignete Kombination von Erfassungsmethoden entwickelt.
Der Baufortschritt soll anhand der Beschreibung, welchen Status die einzelnen Vorgänge angenommen haben, mit Hilfe eines digitalen Bautagebuchs erfasst werden. Die Randbedingungen, wie die Verfügbarkeit von Personal-, Material- und Geräteressourcen, werden mit Hilfe von RFID-Tags identifiziert, auf denen alle weiteren benötigten Informationen hinterlegt sind. Informationen über Ressourcen, welche geplante Termine wiedergeben, müssen ebenfalls im digitalen Bautagebuch hinterlegt und aktuell gehalten werden. Traditionelle Lieferscheine in Papierform müssen durch digitale Lieferscheine ersetzt werden.
Abgeschlossen wurde die Ausarbeitung des Erfassungskonzeptes durch Ansätze, mit deren Hilfe der Erfassungsaufwand reduziert werden kann. Zu diesem Zweck wurde eine hierarchische Ordnung des Erfassungskonzeptes eingeführt.
Im Ergebnis ist somit ein Erfassungskonzept entstanden, mit dessen Hilfe die realen Bau-Ist-Zustände einer Baumaßnahme so genau erfasst werden können, dass täglich ein zutreffendes Abbild des Baufortschrittes und der Randbedingungen des Bauablaufes in einer Simulations¬umgebung generiert werden kann. Die Erfassungskonzeption liefert eine Datenbasis, die auf die Anforderungen der Simulation abgestimmt ist.
Those who ask how social entities relate to the past, enter a field defined by competing interpretations and contested practices of a collectively shared heritage. Dissent and conflict among heritage communities represent productive moments in the negotiation of these varying constructs of the past, identities, and heritage. At the same time, they lead to omissions, the overwriting and amendment of existing constructs. A closer look at all that is suppressed, excluded or rejected opens up new perspectives: It reveals how social groups are formed through public disputes upon the material foundations of heritage constructs.
Taking the concept of censorship, the volume engages with the exclusionary and inclusionary mechanisms that underlie the construction of heritage and thus social identities. Censorship is understood here as a discursive strategy in public debates. In current debates, allegations of censorship surface primarily in cases where the handling of a certain heritage constructs is subjected to critical evaluation, or on the contrary, needs to be protected from criticism or even destruction. The authors trace the connection between heritage and identity and show that identity constructs are not only manifested within heritage but are actively negotiated through it.
Search engines are very good at answering queries that look for facts. Still, information needs that concern forming opinions on a controversial topic or making a decision remain a challenge for search engines. Since they are optimized to retrieve satisfying answers, search engines might emphasize a specific stance on a controversial topic in their ranking, amplifying bias in society in an undesired way. Argument retrieval systems support users in forming opinions about controversial topics by retrieving arguments for a given query. In this thesis, we address challenges in argument retrieval systems that concern integrating them in search engines, developing generalizable argument mining approaches, and enabling frame-guided delivery of arguments.
Adapting argument retrieval systems to search engines should start by identifying and analyzing information needs that look for arguments. To identify questions that look for arguments we develop a two-step annotation scheme that first identifies whether the context of a question is controversial, and if so, assigns it one of several question types: factual, method, and argumentative. Using this annotation scheme, we create a question dataset from the logs of a major search engine and use it to analyze the characteristics of argumentative questions. The analysis shows that the proportion of argumentative questions on controversial topics is substantial and that they mainly ask for reasons and predictions. The dataset is further used to develop a classifier to uniquely map questions to the question types, reaching a convincing F1-score of 0.78.
While the web offers an invaluable source of argumentative content to respond to argumentative questions, it is characterized by multiple genres (e.g., news articles and social fora). Exploiting the web as a source of arguments relies on developing argument mining approaches that generalize over genre. To this end, we approach the problem of how to extract argument units in a genre-robust way. Our experiments on argument unit segmentation show that transfer across genres is rather hard to achieve using existing sequence-to-sequence models.
Another property of text which argument mining approaches should generalize over is topic. Since new topics appear daily on which argument mining approaches are not trained, argument mining approaches should be developed in a topic-generalizable way. Towards this goal, we analyze the coverage of 31 argument corpora across topics using three topic ontologies. The analysis shows that the topics covered by existing argument corpora are biased toward a small subset of easily accessible controversial topics, hinting at the inability of existing approaches to generalize across topics. In addition to corpus construction standards, fostering topic generalizability requires a careful formulation of argument mining tasks. Same side stance classification is a reformulation of stance classification that makes it less dependent on the topic. First experiments on this task show promising results in generalizing across topics.
To be effective at persuading their audience, users of an argument retrieval system should select arguments from the retrieved results based on what frame they emphasize of a controversial topic. An open challenge is to develop an approach to identify the frames of an argument. To this end, we define a frame as a subset of arguments that share an aspect. We operationalize this model via an approach that identifies and removes the topic of arguments before clustering them into frames. We evaluate the approach on a dataset that covers 12,326 frames and show that identifying the topic of an argument and removing it helps to identify its frames.
Wissenschaftliches Kolloquium vom 19. bis 22. April 2007 in Weimar an der Bauhaus-Universität zum Thema: ‚Die Realität des Imaginären. Architektur und das digitale Bild'
The research of the best building design requires a concerted design approach of both structure and foundation. Our work is an application of this approach. Our objective is also to create an interactive tool, which will be able to define, at the early design stages, the orientations of structure and foundation systems that satisfy as well as possible the client and the architect. If the concerns of these two actors are primarily technical and economical, they also wish to apprehend the environmental and social dimensions of their projects. Thus, this approach bases on alternative studies and on a multi-criterion analysis. In this paper, we present the context of our work, the problem formulation, which allows a concerted design of Structure and Foundation systems and the feasible solutions identifying process.
The computational analysis of argumentation strategies is substantial for many downstream applications. It is required for nearly all kinds of text synthesis, writing assistance, and dialogue-management tools. While various tasks have been tackled in the area of computational argumentation, such as argumentation mining and quality assessment, the task of the computational analysis of argumentation strategies in texts has so far been overlooked.
This thesis principally approaches the analysis of the strategies manifested in the persuasive argumentative discourses that aim for persuasion as well as in the deliberative argumentative discourses that aim for consensus. To this end, the thesis presents a novel view of argumentation strategies for the above two goals. Based on this view, new models for pragmatic and stylistic argument attributes are proposed, new methods for the identification of the modelled attributes have been developed, and a new set of strategy principles in texts according to the identified attributes is presented and explored.
Overall, the thesis contributes to the theory, data, method, and evaluation aspects of the analysis of argumentation strategies. The models, methods, and principles developed and explored in this thesis can be regarded as essential for promoting the applications mentioned above, among others.
The p-Laplace equation is a nonlinear generalization of the Laplace equation. This generalization is often used as a model problem for special types of nonlinearities. The p-Laplace equation can be seen as a bridge between very general nonlinear equations and the linear Laplace equation. The aim of this paper is to solve the p-Laplace equation for 2 < p < 3 and to find strong solutions. The idea is to apply a hypercomplex integral operator and spatial function theoretic methods to transform the p-Laplace equation into the p-Dirac equation. This equation will be solved iteratively by using a fixed point theorem.
The p-Laplace equation is a nonlinear generalization of the well-known Laplace equation. It is often used as a model problem for special types of nonlinearities, and therefore it can be seen as a bridge between very general nonlinear equations and the linear Laplace equation, too. It appears in many problems for instance in the theory of non-Newtonian fluids and fluid dynamics or in rockfill dam problems, as well as in special problems of image restoration and image processing.
The aim of this thesis is to solve the p-Laplace equation for 1 < p < 2, as well as for 2 < p < 3 and to find strong solutions in the framework of Clifford analysis. The idea is to apply a hypercomplex integral operator and special function theoretic methods to transform the p-Laplace equation into a p-Dirac equation. We consider boundary value problems for the p-Laplace equation and transfer them to boundary value problems for a p-Dirac equation. These equations will be solved iteratively by applying Banach’s fixed-point principle. Applying operator-theoretical methods for the p-Dirac equation, the existence and uniqueness of solutions in certain Sobolev spaces will be proved.
In addition, using a finite difference approach on a uniform lattice in the plane, the fundamental solution of the Cauchy-Riemann operator and its adjoint based on the fundamental solution of the Laplacian will be calculated. Besides, we define gener- alized discrete Teodorescu transform operators, which are right-inverse to the discrete Cauchy-Riemann operator and its adjoint in the plane. Furthermore, a new formula for generalized discrete boundary operators (analogues of the Cauchy integral operator) will be considered. Based on these operators a new version of discrete Borel-Pompeiu formula is formulated and proved.
This is the basis for an operator calculus that will be applied to the numerical solution of the p-Dirac equation. Finally, numerical results will be presented showing advantages and problems of this approach.
One of the most important renewable energy technologies used nowadays are wind power turbines. In this paper, we are interested in identifying the operating status of wind turbines, especially rotor blades, by means of multiphysical models. It is a state-of-the-art technology to test mechanical structures with ultrasonic-based methods. However, due to the density and the required high resolution, the testing is performed with high-frequency waves, which cannot penetrate the structure in depth. Therefore, there is a need to adopt techniques in the fields of multiphysical model-based inversion schemes or data-driven structural health monitoring. Before investing effort in the development of such approaches, further insights and approaches are necessary to make the techniques applicable to structures such as wind power plants (blades). Among the expected developments, further accelerations of the so-called “forward codes” for a more efficient implementation of the wave equation could be envisaged. Here, we employ electromagnetic waves for the early detection of cracks. Because in many practical situations, it is not possible to apply techniques from tomography (characterized by multiple sources and sensor pairs), we focus here on the question of whether the existence of cracks can be determined by using only one source for the sent waves.
As machine vision-based inspection methods in the field of Structural Health Monitoring (SHM) continue to advance, the need for integrating resulting inspection and maintenance data into a centralised building information model for structures notably grows. Consequently, the modelling of found damages based on those images in a streamlined automated manner becomes increasingly important, not just for saving time and money spent on updating the model to include the latest information gathered through each inspection, but also to easily visualise them, provide all stakeholders involved with a comprehensive digital representation containing all the necessary information to fully understand the structure’s current condition, keep track of any progressing deterioration, estimate the reduced load bearing capacity of the damaged element in the model or simulate the propagation of cracks to make well-informed decisions interactively and facilitate maintenance actions that optimally extend the service life of the structure. Though significant progress has been recently made in information modelling of damages, the current devised methods for the geometrical modelling approach are cumbersome and time consuming to implement in a full-scale model. For crack damages, an approach for a feasible automated image-based modelling is proposed utilising neural networks, classical computer vision and computational geometry techniques with the aim of creating valid shapes to be introduced into the information model, including related semantic properties and attributes from inspection data (e.g., width, depth, length, date, etc.). The creation of such models opens the door for further possible uses ranging from more accurate structural analysis possibilities to simulation of damage propagation in model elements, estimating deterioration rates and allows for better documentation, data sharing, and realistic visualisation of damages in a 3D model.
In this dissertation, a new, unique and original biaxial device for testing unsaturated soil was designed and developed. A study on the mechanical behaviour of unsaturated sand in plane-strain conditions using the new device is presented. The tests were mainly conducted on Hostun sand specimens. A series of experiments including basic characterisation, soil water characteristic curves, and compression biaxial tests on dry, saturated, and unsaturated sand were conducted. A set of bearing capacity tests of strip model footing on unsaturated sand were performed. Additionally, since the presence of fine content (i.e., clay) influences the behavior of soils, soil water characteristic tests were also performed for sand-kaolin mixtures specimens.
Since the Industrial Revolution in the 1700s, the high emission of gaseous wastes into the atmosphere from the usage of fossil fuels has caused a general increase in temperatures globally. To combat the environmental imbalance, there is an increase in the demand for renewable energy sources. Dams play a major role in the generation of “green" energy. However, these structures require frequent and strict monitoring to ensure safe and efficient operation. To tackle the challenges faced in the application of convention dam monitoring techniques, this work proposes the inverse analysis of numerical models to identify damaged regions in the dam. Using a dynamic coupled hydro-mechanical Extended Finite Element Method (XFEM) model and a global optimization strategy, damage (crack) in the dam is identified. By employing seismic waves to probe the dam structure, a more detailed information on the distribution of heterogeneous materials and damaged regions are obtained by the application of the Full Waveform Inversion (FWI) method. The FWI is based on a local optimization strategy and thus it is highly dependent on the starting model. A variety of data acquisition setups are investigated, and an optimal setup is proposed. The effect of different starting models and noise in the measured data on the damage identification is considered. Combining the non-dependence of a starting model of the global optimization strategy based dynamic coupled hydro-mechanical XFEM method and the detailed output of the local optimization strategy based FWI method, an enhanced Full Waveform Inversion is proposed for the structural analysis of dams.
In order to minimize the probability of foundation failure resulting from cyclic action on structures, researchers have developed various constitutive models to simulate the foundation response and soil interaction as a result of these complex cyclic loads. The efficiency and effectiveness of these model is majorly influenced by the cyclic constitutive parameters. Although a lot of research is being carried out on these relatively new models, little or no details exist in literature about the model based identification of the cyclic constitutive parameters. This could be attributed to the difficulties and complexities of the inverse modeling of such complex phenomena. A variety of optimization strategies are available for the solution of the sum of least-squares problems as usually done in the field of model calibration. However for the back analysis (calibration) of the soil response to oscillatory load functions, this paper gives insight into the model calibration challenges and also puts forward a method for the inverse modeling of cyclic loaded foundation response such that high quality solutions are obtained with minimum computational effort. Therefore model responses are produced which adequately describes what would otherwise be experienced in the laboratory or field.
For the safe and efficient operation of dams, frequent monitoring and maintenance are required. These are usually expensive, time consuming, and cumbersome. To alleviate these issues, we propose applying a wave-based scheme for the location and quantification of damages in dams.
To obtain high-resolution “interpretable” images of the damaged regions, we drew inspiration from non-linear full-multigrid methods for inverse problems and applied a new cyclic multi-stage full-waveform inversion (FWI) scheme. Our approach is less susceptible to the stability issues faced by the standard FWI scheme when dealing with ill-posed problems. In this paper, we first selected an optimal acquisition setup and then applied synthetic data to demonstrate the capability of our approach in identifying a series of anomalies in dams by a mixture of reflection and transmission tomography. The results had sufficient robustness, showing the prospects of application in the field of non-destructive testing of dams.
Expert systems integrating fuzzy reasoning techniques represent a powerful tool to support practicing engineers during the early stages of structural design. In this context fuzzy models have proved themselves to be very suitable for the representation of complex design knowledge. However their definition is a laborious task. This paper introduces an approach for the design and the optimization of fuzzy systems based upon Genetic Programming. To keep the emerging fuzzy systems transparent a new framework for the definition of linguistic variables is also introduced.
Structural engineering projects are increasingly organized in networked cooperations due to a permanently enlarged competition pressure and a high degree of complexity while performing the concurrent design activities. Software that intends to support such collaborative structural design processes implicates enormous requirements. In the course of our common research work, we analyzed the pros and cons of the application of both the peer-to-peer (University of Bonn) and multiagent architecture style (University of Bochum) within the field of collaborative structural design. In this paper, we join the benefits of both architecture styles in an integrated conceptual approach. We demonstrate the surplus value of the integrated multiagent–peer-to-peer approach by means of an example scenario in which several structural engineers are co-operatively designing the basic structural elements of an arched bridge, applying heterogeneous CAD systems.
Wahrnehmung und Verarbeitung von Ereignissen bei der verteilten Planung im baulichen Brandschutz
(2003)
Der Bauplanungsprozess ist durch ein hohes Maß an Kooperation zwischen Planungsbeteiligten verschiedener Fachrichtungen gekennzeichnet. Hierbei werden zum einen Planungen auf der Basis von Planungsinformationen anderer Planungsbeteiligter detailliert, zum anderen geben Planungen einzelner auch wichtige Rahmenbedingungen für die Gesamtplanung vor. Der vorliegende Beitrag beschreibt einen Ansatz zur ganzheitlichen Unterstützungen verteilter Planungen am Beispiel des baulichen Brandschutzes. Der Antrag trägt hierbei der verteilten und parallelen Planung Rechnung, wie sie heute bei der Planung großer und mittlerer Bauwerke angewendet wird. Die Verteiltheit wird nicht nur für die Planungsbeteiligten modelliert, sondern auch die einzelnen Planungsinformationen liegen im gemeinsamen Kooperationsverbund verteilt vor. Der Fokus dieses Beitrags liegt auf der Wahrnehmung von Planungsänderungen und Ereignissen während der Planung und die Verarbeitung dieser Informationen um eine durchgängige Planung zu gewährleisten. Dies wird zum einen durch das CoBE Awarenessmodell erreicht, mit dem Ereignisse erkannt und dem Informationsverbund zur Verfügung gestellt werden können. Zum anderen werden die Ereignisbehandlung und die darauf folgende fachgerechte Informationsverarbeitung mit Hilfe eines Multi-Agentensystems beschrieben.
As an optimization that starts from a randomly selected structure generally does not guarantee reasonable optimality, the use of a systemic approach, named the ground structure, is widely accepted in steel-made truss and frame structural design. However, in the case of reinforced concrete (RC) structural optimization, because of the orthogonal orientation of structural members, randomly chosen or architect-sketched framing is used. Such a one-time fixed layout trend, in addition to its lack of a systemic approach, does not necessarily guarantee optimality. In this study, an approach for generating a candidate ground structure to be used for cost or weight minimization of 3D RC building structures with included slabs is developed. A multiobjective function at the floor optimization stage and a single objective function at the frame optimization stage are considered. A particle swarm optimization (PSO) method is employed for selecting the optimal ground structure. This method enables generating a simple, yet potential, real-world representation of topologically preoptimized ground structure while both structural and main architectural requirements are considered. This is supported by a case study for different floor domain sizes.
Das Bauwesen hat sich in den letzten Jahren durch die Globalisierung des Marktes verbunden mit einer verstärkten Nutzung moderner Technologien stark gewandelt. Die Planung und die Durchführung von Bauvorhaben werden zunehmend komplexer und sind mit erhöhten Risiken verbunden. Geld- und Zeitressourcen werden bei einem immer härter werdenden Konkurrenzkampf knapper.
Das Projektmanagement stellt Lösungsansätze bereit, um Bauvorhaben auch unter erschwerten Bedingungen und erhöhten Risiken erfolgreich zum Abschluss zu bringen. Dabei hat ein systematisches Risikomanagement beginnend bei der Projektentwicklung bis zum Projektabschluss eine für den Projekterfolg entscheidende Bedeutung.
Ziel der Arbeit ist es, eine quantitative Risikoerfassung für Projektmanager als professionelle Bauherrenvertretung und die Simulation der Risikoauswirkungen auf den Verlauf eines Projektes während der Planungs- und Bauphase zu ermöglichen. Mit Hilfe eines abstrakten Modells soll eine differenzierte, praxisnahe Simulation durchführbar sein, die die verschiedenen Arten der Leistungs- und Kostenentstehung widerspiegelt. Parallel dazu soll die Beschreibung von Risiken so abstrahiert werden, dass beliebige Risiken quantitativ erfassbar und anschließend ihre Auswirkungen inklusive mögliche Gegenmaßnahmen in das Modell integrierbar sind.
Anhand zweier Beispiele werden die unterschiedlichen Einsatzmöglichkeiten der quantitativen Erfassung von Projektrisiken und der anschließenden Simulation ihrer Auswirkungen aufgezeigt. Bei dem ersten Beispiel, einem realen, bereits abgeschlossenen Schieneninfrastrukturprojekt, wird die Wirksamkeit einer vorbeugenden Maßnahme gegen ein Projektrisiko untersucht. Im zweiten Beispiel wird ein Planspielansatz zur praxisnahen Aus- und Weiterbildung von Projektmanagern entwickelt. Inhalt des Planspiels ist die Planung und Errichtung eines privatfinanzierten, öffentlichen Repräsentationsbaus mit teilweiser Fremdnutzung.
Wissenschaftseinrichtungen und Hochschulen stehen in den nächsten Jahren in Folge der Föderalismusreform und der Abschaffung des Hochschulbauförderungsgesetzes vor besonderen Herausforderungen, die nur unter effizienter Ausnutzung aller vorhandenen Ressourcen zu meistern sind. Insbesondere der kummulierte Bau-, Sanierungs- und damit Finanzierungsbedarf führt zu der Erkenntnis, dass immobilienbezogene Entscheidungen langfristig über den gesamten Lebenszyklus zu treffen sind, damit ein schleichender Wertverlust vermieden wird. Die Arbeit beschäftigt sich mit den anstehenden Veränderungsprozessen im Hinblick auf ein lebenszyklusorientiertes Liegenschaftsmanagement. Ausgehend von den Rahmenbedingungen werden Handlungs- und Gestaltungshilfen für die Praxis entwickelt, die spezifisch für Hochschulen, Wissenschaftseinrichtungen und Studentenwerke anwendbar sind. Dabei fließen die Erfahrungen aus der Untersuchung konkreter Pilotprojekte in die Untersuchung ein. In der Arbeit wird ein Datenmodell entwickelt, das Entscheidungen im lebenszyklusorientierten Liegenschaftsmanagement bei Neu-, Umbau- und Sanierungs¬maßnahmen und die Wahl von Beschaffungsvarianten unterstützt. Die Arbeit befasst sich mit drei Untersuchungsschwerpunkten: 1. Immobilienportfolioebene: Lebenszyklusorientierte Betrachtung des Gesamtbestandes an Liegenschaften, 2. Projektebene: Analyse und Bewertung lebenszyklusorientierter Vertrags- und Organisationsformen mit privater Beteiligung, 3. Datenebene: Analyse vorhandener Daten und Kennzahlen für eine Lebens-zyklusbetrachtung; Erarbeitung eines Datenmodells zum Kostencontrolling.
Development of infrastructure projects with private engagement through PPP has become one of the commonly adopted procurement strategies in developed and developing countries. All over the world where PPP procurement has been used in one form or another, the way in which it is carried out has become an important issue. Yet, there is no standard method of PPP implementation as each country adapts the process as appropriate for its own culture, economy, political climate and legal system. It is therefore essential that all parties likely to be involved have a common understanding of the principles underlying PPP structures and an appreciation of the key issues from the standpoints of the private as well as the public sectors. PPP projects with substantial private investments involve participation of stakeholders with diverse perspectives, which can lead to different perceptions on the viability of the project. The introduction chapter covers the general issues of PPP implementation and presents an overview of the use of PPP in the delivery of public infrastructure and services across the world. Following, in five case studies PPP projects from Asia and Europe are presented and reveal differences in the respective approaches of each country. The case studies analyze project objectives, scope and site as well as legal, contractual and financial framework under which the projects were realized. Each case study closes with a chapter discussing the different approaches and summarizing lessons learned.
Am 4. Oktober 2007 fand im Rahmen des Forschungsprojektes „Lebenszyklusorientiertes Management öffentlicher Liegenschaften am Beispiel von Hochschulen und Wissenschaftseinrichtungen“ in Weimar der Workshop „PPP-Eignung und Vorgehensweise bei Hochschulprojekten“ mit über 60 Vertretern von Hochschulen, Studentenwerken, Ministerien, PPP Task Forces und Liegenschaftsbetrieben der Länder statt. Im Beitrag erfolgt die Zusammenstellung der Präsentationen der Referenten.
Anlässlich der Bedeutung und Tragweite des Risikomanagements für die erfolgreiche Abwicklung von Public Private Partnership-Projekten wurde von Juni 2008 bis Oktober 2010 das Forschungsprojekt „Lebenszyklusorientiertes Risikomanagement für PPP-Projekte im öffentlichen Hochbau“ an der Bauhaus-Universität Weimar umgesetzt. Gefördert wurde das Forschungsprojekt aus den Mitteln der Forschungsinitiative „Zukunft Bau“, welche durch das Bundesministerium für Verkehr, Bau und Stadtentwicklung (BMVBS) und dem Bundesamt für Bauwesen und Raumordnung (BBR) als Projektträger gemeinsam durchgeführt wird. Das Ziel des Forschungsprojektes bestand in der Entwicklung eines Integrierten Risikomanagementsystems (abgekürzt: IRMS), das die PPP-Vertragspartner zu einem zielgerichteten und wirtschaftlichen Umgang mit den inkludierten Risiken befähigen soll. Darüber hinaus soll das System eine projektspezifische und innerhalb des gegebenen Handlungsspielraums optimale Risikoverteilung ermöglichen. Der Forschungsbericht untergliedert sich in vier Teile, welche die Arbeitsergebnisse des Forschungsprojektes strukturiert darstellen. Zunächst werden im ersten Teil des Forschungsberichtes die Ergebnisse einer empirischen Untersuchung zum Ist-Zustand des Risikomanagements in PPP-Projekten des öffentlichen Hochbaus als Grundlage für die weiteren Untersuchungen und Ergebnisse des Forschungsprojektes analysiert. Der zweite Teil des Forschungsprojektes beinhaltet ein Kompendium bzw. Werkzeugkasten der Methoden des Risikomanagements. In ihm werden die Verfahren zur Erlangung von risikobezogenen Erkenntnissen oder praktischen Ergebnissen dargestellt und hinsichtlich ihrer Eigenschaften analysiert. Darüber hinaus werden Allokationskriterien auf der Grundlage der den PPP-Vertragspartnern real zur Verfügung stehenden Informationen definiert, die als Basis sowohl für die Selektion vorteilhafter Risikobewältigungsmaßnahmen als auch für den Nachweis der Vorteilhaftigkeit der Übernahme von Risiken für Auftragnehmer im Risikomanagementprozess dienen. Durch die Anwendung dieser Allokationskriterien im IRMS kann eine optimale Risikoverteilung sowohl für den einzelnen Projektpartner als auch das Gesamtprojekt erreicht werden. Im dritten Teil wird das integrierte Risikomanagement-Prozessmodell über den gesamten Projektlebenszyklus eines PPP-Hochbauprojektes unter Berücksichtigung der relevanten PPP-Vertragspartner dargestellt und erläutert. Es stellt einen wesentlichen Beitrag zur Standardisierung dar und bietet die Möglichkeit für die Praxis, ein Verständnis für die Abläufe und Anforderungen der anderen Vertragspartner weiter zu entwickeln. Das Modell besteht aus drei Ebenen. Auf der ersten Ebene werden die Prozesse aller PPP-Vertragspartner und ihre Interaktion über den Projektlebenszyklus in einer globalen Prozesslandkarte dargestellt. Die zweite Ebene bildet die vertragspartnerspezifischen Prozesslandkarten ab. Den höchsten Detaillierungsgrad weist die dritte Ebene mit den vertragspartnerspezifischen Risikomanagementprozessen auf. Sie bildet die Integration der einzelnen Phasen des Risikomanagementprozesses in die bestehende Ablauforganisation der PPP-Vertragspartner in Form von Prozessflussdiagrammen ab. Von herausragender Bedeutung innerhalb des Risikoprozessmodells ist der Standardprozess Risikoallokation, welcher bei allen Vertragspartnern in den einzelnen Projektphasen verwendet wird. Abhängig von der jeweiligen Zielstellung seiner Verwendung befähigt er sowohl zur Ermittlung der optimalen Risikoallokation unter dem gegebenen Handlungsspielraum des Anwenders als auch zur Auswahl einer optimalen Risikobewältigung für ein Einzelrisiko bzw. Risikobündel innerhalb eines bestehenden Steuerungskonzeptes. Der vierte Teil führt die Erkenntnisse der vorhergehenden Bände in der exemplarischen Ausgestaltung des IRMS zusammen. Es besteht aus dem auf die PPP-Prozesse abgestimmten integrierten Risikomanagement-Prozessmodell, den zu den einzelnen Prozessen gehörenden Methoden sowie organisationsspezifischen Festlegungen. Um die Anwendbarkeit eines solchen IRMS aufzuzeigen, wird exemplarisch die methodische Ausgestaltung des Standardprozesses Risikoallokation vorgestellt.
Die öffentliche Hand setzt zunehmend bei der Beschaffung von Bauwerken auf Alternativen, da aufgrund der negativen finanziellen Entwicklung der öffentlichen Haushalte die notwendigen Investitionsmaßnahmen nicht mehr oder nur eingeschränkt umgesetzt werden. Seit Anfang 2000 gehören auch die Modelle Public Private Partnerships (PPP - auch Öffentlich Private Partnerschaften genannt) zu diesen Alternativen. Dabei werden unter Berücksichtigung des Lebenszyklusansatzes alle Wertschöpfungsstufen von Bauwerken – Planen, Bauen, Finanzieren, Betreiben, ggf. Verwerten – integriert und als Gesamtleistung ausgeschrieben. Damit kann es möglich sein, Effizienzvorteile von bis zu 20% gegenüber der konventionellen Beschaffung zu erreichen. Bauunternehmen sind gefordert, sich dieser neuen Beschaffungsvariante anzupassen, wenn sie entsprechende Leistungen anbieten wollen. Sie übernehmen im Kerngeschäft die Errichtung und bauliche Erhaltung von Bauwerken. Auf Grund der Integration aller Wertschöpfungsstufen sind Bauunternehmen gefordert, ihre Leistungen mit den anderen am Lebenszyklus von Bauwerken beteiligten Partner zu koordinieren und in einen Gesamtzusammenhang zu stellen. Das Ziel des Leitfadens ist es, mittelständischen Bauunternehmen die Erarbeitung einer eigenen Strategie für das Geschäftsfeld PPP zu ermöglichen. Dabei gilt es, die besonderen Herausforderungen des Geschäftsfeldes ebenso wie die Besonderheiten mittelständischer Bauunternehmen zu berücksichtigen. Eine strategische Vorgehensweise bei der Erschließung des für Bauunternehmen neuen Geschäftsfeldes ist notwendig, da nicht nur die Vorlauf- und Angebotskosten bei PPP-Projekten um ein Vielfaches höher sind als bei konventionellen Bauprojekten, sondern auch die Herausforderungen und Risiken von PPP-Projekten sich deutlich von der bisherigen Tätigkeit unterscheiden. Eine Beteiligung am Geschäftsfeld ohne Strategie kann unter Umständen den Bestand des gesamten Bauunternehmens gefährden. Mit Hilfe des Leitfadens werden Handlungsempfehlungen dargestellt, die unternehmensspezifisch weiterentwickelt werden können. Die Anwendung des Leitfadens ermöglicht mittelständischen Bauunternehmen, die Stellung des Unternehmens im Bezug zum neuen Geschäftsfeld PPP zu identifizieren und daraus Rückschlüsse für eine Beteiligung am Geschäftsfeld PPP zu ziehen.
This work presents a robust status monitoring approach for detecting damage in cantilever structures based on logistic functions. Also, a stochastic damage identification approach based on changes of eigenfrequencies is proposed. The proposed algorithms are verified using catenary poles of electrified railways track. The proposed damage features overcome the limitation of frequency-based damage identification methods available in the literature, which are valid to detect damage in structures to Level 1 only. Changes in eigenfrequencies of cantilever structures are enough to identify possible local damage at Level 3, i.e., to cover damage detection, localization, and quantification. The proposed algorithms identified the damage with relatively small errors, even at a high noise level.
Electric trains are considered one of the most eco-friendly and safest means of transportation. Catenary poles are used worldwide to support overhead power lines for electric trains. The performance of the catenary poles has an extensive influence on the integrity of the train systems and, consequently, the connected human services. It became a must nowadays to develop SHM systems that provide the instantaneous status of catenary poles in- service, making the decision-making processes to keep or repair the damaged poles more feasible. This study develops a data-driven, model-free approach for status monitoring of cantilever structures, focusing on pre-stressed, spun-cast ultrahigh-strength concrete catenary poles installed along high-speed train tracks. The pro-posed approach evaluates multiple damage features in an unfied damage index, which leads to straightforward interpretation and comparison of the output. Besides, it distinguishes between multiple damage scenarios of the poles, either the ones caused by material degradation of the concrete or by the cracks that can be propagated during the life span of the given structure. Moreover, using a logistic function to classify the integrity of structure avoids the expensive learning step in the existing damage detection approaches, namely, using the modern machine and deep learning methods. The findings of this study look very promising when applied to other types of cantilever structures, such as the poles that support the power transmission lines, antenna masts, chimneys, and wind turbines.
This study proposes an efficient Bayesian, frequency-based damage identification approach to identify damages in cantilever structures with an acceptable error rate, even at high noise levels. The catenary poles of electric high-speed train systems were selected as a realistic case study to cover the objectives of this study. Compared to other frequency-based damage detection approaches described in the literature, the proposed approach is efficiently able to detect damages in cantilever structures to higher levels of damage detection, namely identifying both the damage location and severity using a low-cost structural health monitoring (SHM) system with a limited number of sensors; for example, accelerometers. The integration of Bayesian inference, as a stochastic framework, in the proposed approach, makes it possible to utilize the benefit of data fusion in merging the informative data from multiple damage features, which increases the quality and accuracy of the results. The findings provide the decision-maker with the information required to manage the maintenance, repair, or replacement procedures.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1996 in Weimar an der Bauhaus-Universität zum Thema: ‚Techno-Fiction. Zur Kritik der technologischen Utopien'
Over the last decade, the technology of constructing buildings has been dramatically developed especially with the huge growth of CAD tools that help in modeling buildings, bridges, roads and other construction objects. Often quality control and size accuracy in the factory or on construction site are based on manual measurements of discrete points. These measured points of the realized object or a part of it will be compared with the points of the corresponding CAD model to see whether and where the construction element fits into the respective CAD model. This process is very complicated and difficult even when using modern measuring technology. This is due to the complicated shape of the components, the large amount of manually detected measured data and the high cost of manual processing of measured values. However, by using a modern 3D scanner one gets information of the whole constructed object and one can make a complete comparison against the CAD model. It gives an idea about quality of objects on the whole. In this paper, we present a case study of controlling the quality of measurement during the constructing phase of a steel bridge by using 3D point cloud technology. Preliminary results show that an early detection of mismatching between real element and CAD model could save a lot of time, efforts and obviously expenses.
The polymeric clay nanocomposites are a new class of materials of which recently have become the centre of attention due to their superior mechanical and physical properties. Several studies have been performed on the mechanical characterisation of these nanocomposites; however most of those studies have neglected the effect of the interfacial region between the clays and the matrix despite of its significant influence on the mechanical performance of the nanocomposites.
There are different analytical methods to calculate the overall elastic material properties of the composites. In this study we use the Mori-Tanaka method to determine the overall stiffness of the composites for simple inclusion geometries of cylinder and sphere. Furthermore, the effect of interphase layer on the overall properties of composites is calculated. Here, we intend to get ounds for the effective mechanical properties to compare with the analytical results. Hence, we use linear displacement boundary conditions (LD) and uniform traction boundary conditions (UT) accordingly. Finally, the analytical results are compared with numerical results and they are in a good agreement.
The next focus of this dissertation is a computational approach with a hierarchical multiscale method on the mesoscopic level. In other words, in this study we use the stochastic analysis and computational homogenization method to analyse the effect of thickness and stiffness of the interfacial region on the overall elastic properties of the clay/epoxy nanocomposites. The results show that the increase in interphase thickness, reduces the stiffness of the clay/epoxy naocomposites and this decrease becomes significant in higher clay contents. The results of the sensitivity analysis prove that the stiffness of the interphase layer has more significant effect on the final stiffness of nanocomposites. We also validate the results with the available experimental results from the literature which show good agreement.
This dataset consists mainly of two subsets. The first subset includes measurements and simulation data conducted to validate the simulation tool ENVI-met. The measurements were conducted at the campus of the Bauhaus-University Weimar in Weimar, Germany and consisted of recording exterior air temperature, globe temperature, relative humidity, and wind velocity at 1.5 m at four points on four different days. After the measurements, the geometry of the campus was modelled and meshed; the simulations were conducted using the weather data of the measurements days with the aim of investigating the accuracy of the model.
The second data subset consists of ENVI-met simulation data of the potential of facade greening in improving the outdoor environment and the indoor air temperature during heatwaves in Central European cities. The data consist of the boundary conditions and the simulation output of two simulation models: with and without facade greening. The geometry of the models corresponded to a residential buildings district in Stuttgart, Germany. The simulation output consisted of exterior air temperature, mean radiant temperature, relative humidity, and wind velocity at 12 different probe points in the model in addition to the indoor air temperature of an exemplary building. The dataset presents both vertical profiles of the probed parameters as well as the time series output of the five-day simulation duration. Both data subsets correspond to the investigations presented in the co-submitted article [1].
Besides their multiple known benefits regarding urban microclimate, living walls can be used as decentralized stand-alone systems to treat greywater locally at the buildings. While this offers numerous environmental advantages, it can have a considerable impact on the hygrothermal performance of the facade as such systems involve bringing large quantities of water onto the facade. As it is difficult to represent complex entities such as plants in the typical simulation tools used for heat and moisture transport, this study suggests a new approach to tackle this challenge by coupling two tools: ENVI-Met and Delphin. ENVI-Met was used to simulate the impact of the plants to determine the local environmental parameters at the living wall. Delphin, on the other hand, was used to conduct the hygrothermal simulations using the local parameters calculated by ENVI-Met. Four wall constructions were investigated in this study: an uninsulated brick wall, a precast concrete plate, a sandy limestone wall, and a double-shell wall. The results showed that the living wall improved the U-value, the exterior surface temperature, and the heat flux through the wall. Moreover, the living wall did not increase the risk of moisture in the wall during winter and eliminated the risk of condensation.