Conference Proceeding
Refine
Year of publication
Institute
- Fachbereich Elektrotechnik und Informationstechnik (310)
- Fachbereich Energietechnik (263)
- Fachbereich Medizintechnik und Technomathematik (253)
- Fachbereich Luft- und Raumfahrttechnik (214)
- Fachbereich Maschinenbau und Mechatronik (210)
- Solar-Institut Jülich (167)
- IfB - Institut für Bioengineering (155)
- Fachbereich Bauingenieurwesen (139)
- Fachbereich Wirtschaftswissenschaften (75)
- ECSM European Center for Sustainable Mobility (62)
- INB - Institut für Nano- und Biotechnologien (55)
- MASKOR Institut für Mobile Autonome Systeme und Kognitive Robotik (49)
- Fachbereich Chemie und Biotechnologie (35)
- Nowum-Energy (22)
- Fachbereich Architektur (17)
- Kommission für Forschung und Entwicklung (17)
- ZHQ - Bereich Hochschuldidaktik und Evaluation (10)
- FH Aachen (7)
- IaAM - Institut für angewandte Automation und Mechatronik (5)
- Fachbereich Gestaltung (4)
- Arbeitsstelle fuer Hochschuldidaktik und Studienberatung (2)
- Institut fuer Angewandte Polymerchemie (2)
- Verwaltung (2)
- Digitalisierung in Studium & Lehre (1)
- Freshman Institute (1)
- Kommission für Planung und Finanzen (1)
- Senat (1)
Language
- English (1197)
- German (483)
- Italian (1)
- Multiple languages (1)
- Spanish (1)
Document Type
- Conference Proceeding (1683) (remove)
Keywords
- Biosensor (25)
- Blitzschutz (15)
- CAD (11)
- Finite-Elemente-Methode (11)
- civil engineering (11)
- Bauingenieurwesen (10)
- Lightning protection (9)
- Einspielen <Werkstoff> (6)
- Telekommunikationsmarkt (6)
- shakedown analysis (6)
Die ökologische Umgestaltung der Dhünn in Leverkusen – Ein Beispiel für die praktische Planung
(2009)
Dipl.-Ing. (FH) Dieter Stein M.Sc (Environmental Engineering) - Landschaftsarchitekt AKNW, Grevenbroich. 14 Seiten ( S. 78-91). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen>. Zusammenfassung [des Autors] Unter Berücksichtigung vorhandener örtlicher Gegebenheiten und technischer Einrichtungen (wie z.B. Verkehrstrassen, Versorgungsleitungen, Einlaufbauwerke etc.) hat die Dhünn innerhalb der Deiche mehr Bewegungsfreiheit erhalten. Der Hochwasserschutz bleibt dabei weiterhin gewährleistet. Die Gehölzstrukturen im Uferbereich wurden weitgehend erhalten. Dort, wo die Bauarbeiten eine Entfernung von Gehölzen erforderlich machten, wurden die Flächen bewusst einer eigenständigen Entwicklung überlassen. In diesen Bereichen werden sich im Laufe der Zeit von selbst neue Pflanzen und Gehölze ansiedeln. Mit der naturnahen Umgestaltung der Dhünn als "Starthilfe" kann die Natur die weitere Entwicklung übernehmen: Tier- und Pflanzenarten können sich das ehemals kanalartig ausgebaute Gewässer "zurückerobern", Fische und Kleintiere finden Nahrung und Ruheplätze. Für die Menschen entsteht ein wertvoller Erholungsraum mitten in der Stadt. Trotz zahlreicher Akteure und erheblicher Restriktionen konnte das Projekt in relativ kurzer Zeit realisiert werden. Dem Wupperverband (Untere Lichtenplatzer Str. 100; 42289 Wuppertal) und hier vor allem den Projektleitern Herrn Arnim Lützenberger und Herrn Andreas Oberborbeck sei an dieser Stelle besonders für eine hervorragende Zusammenarbeit gedankt.
Dipl.-Ing. Hartmut Hoevel - Erftverband, Bergheim. 3 Seiten (S. 75-77). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Die Erft ist ein linker Nebenfluss des Rheins. Der Fluss ist durch eingeleitetes Sümpfungswasser aus dem rheinischen Braunkohletagebau hinsichtlich der Wassermenge und der Temperatur stark belastet. Die vorgestellten Überlegungen betreffen die Fragen: 1. Wie soll die Erft im Jahr 2045, also nach dem voraussichtlichen Ende der Tagebauaktivitäten im Rheinischen Braunkohlerevier und damit einhergehender Beenigung der Sümpfungswassereinleitung, aussehen? 2. Wie schnell und auf welche Weise soll die Umgestaltung der Erft vonstatten gehen?
Mischwassereinleitungen in Gewässer nach BWK Merkblatt M3 - Vorteile des detaillierten Nachweises
(2009)
Dipl.-Ing. Brigitte Huber und Dr.-Ing. Gerd Demny - Wasserverband Eifel Rur, Düren. 16 Seiten ( S. 59-74). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Zusammenfassung [der Autoren] Für das städtisch geprägte Einzugsgebiet des Broicher Baches sind ein vereinfachter und ein detaillierter Nachweis nach BWK-M3 durchgeführt worden. Dabei zeigt sich, dass die Methodik des vereinfachten Nachweises nicht geeignet ist, um eine realitätsnahe Abbildung der einleitungsgeprägten Abflüsse des Gewässers zu erhalten. Dies ist insbesondere auf die Vernachlässigung von Wellentranslation und -retention im Gerinne zurückzuführen. Die dadurch entstehende Fehleinschätzung der Abflussverhältnisse versperrt den Blick auf eine situationsgerechte Maßnahmenplanung. Der mit Hilfe eines NA-Modells geführte detaillierte Nachweis ist zwar in der Erstellung aufwändiger, zeichnet aber ein reales Bild der Abflusserhöhung durch Einleitungen. Mit Hilfe des Modells können die wesentlichen Einflüsse schnell lokalisiert und zielführende Maßnahmenvarianten identifiziert werden. In dem hier vorgestellten Beispiel des Broicher Baches können die ursprünglich identifizierten acht Maßnahmen auf eine reduziert werden. Das Gesamtvolumen der erforderlichen Rückhaltungen wird um die Hälfte verringert. Der Vergleich beider Nachweismethoden legt nach Ansicht der Autoren nahe, den vereinfachten Nachweis höchstens für eine erste Einschätzung des Maßnahmenbedarfs anzuwenden. Die Maßnahmenidentifikation und -dimensionierung sollte grundsätzlich mit der detaillierten Nachweismethode durchgeführt werden, die auf einem entsprechenden NA-Modell basiert. Dies gilt insbesondere für Gewässerstrecken, deren Abfluss durch mehrere, hintereinander liegende Einleitungsstellen geprägt ist.
Dr.-Ing. Oliver Stoschek [u.a.] DHI Wasser und Umwelt GmbH, Syke. 14 S. (S. 45-58). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Ökologische Modelle zur Berechnung der Temperaturveränderung und den Einfluss von Kühlwasser auf die Wassertemperatur der Elbe. Die vorgelegte Arbeit wurde beauftragt und unterstützt von der ARGE Elbe im Zuge der Neuauflage des Wärmelastplans Elbe.
Dipl.-Ing. Stefan Overkamp - GISWORKS GbR, Velbert. 11 S. (S. 7-17). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Aus der Gliederung: 1 Geoinformationssysteme 2 Anforderungen an eine kommunale Geodateninfrastruktur (GDI) 3 Komponenten einer GDI 3.1 Geodatenmanagement 3.2 Geodatenhaltung 3.3 High-End-GIS 3.4 intraGIS 4 GISWORKS 5 Weiterführende Informationen
Dr.-Ing. Martin Wolf ; Dipl.-Kaufm. Daniel Ulbrich , Dr. Pecher und Partner Ingenieurgesellschaft mbH, München. 31 S. (S. 139-168). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft < 1, 2007, Aachen>. Zusammenfasung [der Autoren] Die öffentlichen Kanalnetze Deutschlands stellen mit einem Wert von rd. 330 Mrd. € ein enormes Anlagevermögen dar. Auf Grund des oft schlechten Zustandes und geringer Ausgaben zur Instandhaltung und Erneuerung ist zu erwarten, dass durch die gegenwärtige Sanierungspraxis eher ein Substanzwertverzehr des Kanalnetzes als ein Substanzwerterhalt im Sinne des Generationenvertrages erzielt wird. Für einen nachhaltigen Betrieb und Erhalt der Kanalnetze sind deshalb Sanierungsstrategien erforderlich, die neben den technischen und gesetzlichen Anforderungen auch den mittel- und langfristigen Substanzwertverlauf berücksichtigen. Dieser wird beeinflusst vom erforderlichen oder durchgeführten Sanierungsumfang, Art und Zusammensetzung der ausgewählten Maßnahmen sowie der zeitlichen Abfolge der Sanierungsmaßnahmen. Erheblichen Einfluss auf den Substanzwertverlauf hat zudem die Berücksichtigung der hydraulischen Verhältnisse sowie der optisch nicht sichtbaren Undichtheiten. Entsprechend ist es erforderlich, die tatsächlich vorhandenen Defizite zu ermitteln und die Sanierungsmaßnahmen sowie eine Strategie zur Umsetzung zu erarbeiten. Da sich gezeigt hat, dass alleine die Einhaltung der technischen und gesetzlichen Anforderung für einen Substanzwerterhalt nicht ausreicht, muss die geplante Strategie im Dr.-Ing. Martin Wolf 139 von 170 Decision-Support-System kokas zur Sanierungsplanung und Strategieentwicklung 1. Aachener Softwaretag in der Wasserwirtschaft Hinblick auf die nachhaltige Wertentwicklung überprüft und ggf. Anpassungen vorgenommen werden. Kurzfristig erzielte Einsparungen durch reduzierten Schadensumfang oder einseitige Maßnahmenwahl ermöglichen zwar im günstigsten Fall, die Anforderungen einzuhalten, gehen jedoch zwangsläufig zu Lasten des Substanzwertes und führen mittel- und langfristig zu einer Verschärfung der Kosten- und Gebührensituation. Der monetäre, am konkreten Sanierungsaufwand orientierte Substanzwertansatz ermöglicht dabei, technische und kaufmännische Gesichtspunkte praxisnah zu verknüpfen und den bestmöglichen Ausgleich zwischen den gegenläufigen Zielen Substanzwerterhalt und Gebührenkonstanz zu finden.
Dipl.Ing. Johann Andorfer , Tandler.com GmbH, Buch a. Erlbach. Abstract zum 1. Aachener Softwaretag in der Wasserwirtschaft <1,2007, Aachen>. 2 S. (S. 136-137) Eine nachhaltige Sicherung der Funktionalität und der ökologischen Verträglichkeit eines mittleren bis großen Kanalnetzes erfordert eine umfassende und detaillierte Modellierung in Raum und Zeit. Um den in den Richtlinien geforderten statistischen Anforderungen gerecht zu werden und die jährlichen Häufigkeiten, Mengen und Zeiträume der Belastungen erwartungstreu abschätzen zu können, ist es zielführend und notwendig, lange Zeiträume und die Gesamtheit der Einzugsgebiete möglichst detailliert zu betrachten. Die hydraulische Funktionalität und Sicherheit soll meistens mit Hilfe zeitsymmetrischer (hydrodynamischer) Verfahren nur durch Betrachtung von Modellregen, allenfalls Regenserien, sichergestellt werden. Für die Abschätzung der jährlich zu erwartenden Emissionen in unsere natürlichen Gewässer mit ihren Mengen, Frequenzen und Dauern werden normalerweise Langzeitsimulationen natürlicher Regenreihen über möglichst große Zeiträume mit zeitasymmetrischen (hydrologischen) Verfahren durchgeführt. Die betrachteten Kanalnetze werden zumeist vereinfacht (Grobnetze), um die Rechenzeiten erträglicher zu gestalten. Wünschenswert wäre jedoch eine allen Anforderungen gerecht werdende wirklichkeitsnahe Modellierung des gesamten Kanalnetzes in all seinen Details, Vermaschungen und Wechselwirkungen (Feinnetz) und dessen zeitsymmetrische und damit verlässliche Simulation mit langjährigen Regenreihen. Bereits vor 15 Jahren wurde im Hause Tandler begonnen, die Berechnungssoftware durch Parallelisierung auf symmetrische Multiprozessortechnologien auszurichten. In neuerer Zeit hält diese Technik durch die Mehrkernprozessoren in normalen Notebooks und PCs Einzug in die Ingenieurbüros und Abwasserbetriebe und sorgt schon für wesentliche Einsparungen an Rechenzeit. Doch erst durch die Kombination der Parallelisierung mit dem Prinzip des verteilten Rechnens (d.h. die Einbeziehung mehrerer PCs eines Netzwerkes in die Berechnung) erhält man die Chance ausreichend Rechenkapazität zur Verfügung zu stellen, um nicht nur eine einzelne Langzeitsimulation eines Feinnetzes durchzuführen, sondern sogar mehrere Sanierungsalternativen zu überprüfen. Die zukunftsweisenden Arbeiten von Dipl. Math. R. Tandler auf diesem Gebiet sind Thema dieses Vortrags.
Dr.-Ing. Raju M. Rohde , Dorsch Consult Wasser und Umwelt GmbH, München mit 32 Folien (S. 103-134). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen>. Das System BaSYS.L.E.O. Ganglinien-Volumen-Methode Hydrodynamische Kanalnetzberechnung Hydraulische Objekte Hydrodynamische Schmutzfrachtberechnung
Das Oberflächenabflussmodell von Keser und die Grenzwertmethode : Die Abflussbildung im Vergleich.
(2007)
Dipl.-Ing. Rudolf Herzog , Rehm Software Berg / Ravensburg. 9 S. (S. 94-102). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft a1, 2007, Aachen>. Zusammenfassung [des Autors] Die grundlegenden Ansätze der beiden Modelle sind ähnlich. Der hauptsächliche Unterschied liegt darin, dass die Grenzwertmethode die Angabe einer Bodenart erfordert, die ihrerseits wieder Probleme verursachen kann. Es kann nicht davon ausgegangen werden, dass die Bodenarten homogen anliegen. Die ersatzweise Vorgabe einer für alle Einzugsgebiete einheitlichen Bodenart hilft da nicht wirklich weiter. Es stellt sich vielmehr die Frage, ob der zusätzliche Aufwand eine signifikante Verbesserung des Ereignisses zur Folge hat. Der Vorteil der Grenzwertmethode liegt auf der Hand: Die Parameterwahl ermöglicht eine flexible Steuerung des Modells, in die Abflussbildung kann differenziert eingegriffen werden. Das NA-Geschehen kann weitgehend kalibriert werden. Es ist allerdings auch zu bedenken, dass die Flexibilität des Modells risikobehaftet ist - die Abflussbildung kann nach Belieben beeinflusst werden. Fazit: Flexibel in der Anwendung, bei NA-Messung empfehlenswert. Im Allgemeinen geringere Abflussmengen als Keser. Die Blackbox von Keser ist zwar nicht steuerbar, entzieht sich damit aber auch Wissensdefiziten und Manipulationseinflüssen. Über Parameter und deren Auswirkungen muss nicht spekuliert werden. Wenn mehrere Personen mit dem Modell von Keser arbeiten, ergeben sich im Gegensatz zur Grenzwertmethode zwangsweise dieselben Ergebnisse - gleiche geometrische Oberflächendaten vorausgesetzt. Außerdem kommt Keser ohne die Bodenart aus. Fazit: Bei BFG >20%, einfache Handhabung, geringer Aufwand. Gegenüber der Grenzwertmethode (mittlere Verhältnisse) jedoch etwas höhere Abflüsse. Das Programmpaket HYKAS der Fa. Rehm Software ermöglicht u.a. den Nachweis von Kanalnetzen und bietet in diesem Zusammenhang beide Modellansätze zur Auswahl an. Der Programmanwender kann damit eine am Datenbestand bzw. an den Vorgaben des Auftraggebers ausgerichtete Modellauswahl treffen. Die realitätsnahe Ermittlung der Oberflächenabflüsse ist kompliziert. Weitere Unwegsamkeiten warten nach der Abflussbildung bei der Abflusskonzentration auf: Es ist z.B. die Festlegung der Fließlänge auf der Oberfläche erforderlich... Es ist noch ein weiter Weg bis zur Kläranlage.
Dipl.-Ing. Ralf Engels - DHI Wasser und Umwelt GmbH, Syke. 24 S. (S. 70-93) Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1,2007, Aachen> Einleitung [des Autors] Die hydrodynamische Kanalnetzmodellierung ist ein Standardwerkzeug für die Bemessung von Kanalnetzen. Neben der Berechnung der hydrologischen und hydraulischen Gegebenheiten in einem städtischen Einzugsgebiet gehören auch weiterführende Technologien mittlerweile zum Standard. So können alle steuerbaren Elemente eines Kanalnetzes dynamisch so optimiert werden, dass die Leistungsfähigkeit des Kanalnetzes zusätzlich gesteigert werden kann. Automatische Werkzeuge zur dynamischen hydraulischen Schmutzfrachtberechnung ermöglichen die Erweiterung der Steuerung – insbesondere von Entlastungsanlagen – im Hinblick auf die entlasteten Schmutzfrachten und geben darüber hinaus detaillierte Informationen für den Betrieb der Kläranlage. Weiterführende biologische Prozessmodellierungen ergänzen dieses Themenfeld. GIS Werkzeuge können bei der räumlich differenzierten Modellierung von Kanalnetzen wertvolle Dienste leisten. Die detaillierte Betrachtung einzelner Haltungsflächen in ihrem räumlichen Zusammenhang ist damit ebenso möglich wie eine komplette Verwaltung aller für die Kanalnetzmodellierung notwendigen Daten in einem übersichtlichen grafischen Menü. Die Grenzen der Kanalnetzmodellierung lagen in früheren Zeiten an dessen Rand. Detaillierte Informationen über die Wege des Wassers auf der Geländeoberfläche, an der Schnittstelle zu Vorflutern und in der Interaktion mit Grundwasser waren bisher nicht modelltechnisch bewertbar. Eine dynamische Kopplung verschiedener Modelle zur Darstellung aller relevanten hydraulischen Prozesse ermöglicht eine integrative Betrachtung aller möglichen Wege, die das Wasser in der Stadt nehmen kann (Mark & Djordjevic, 2006). Dieser Beitrag präsentiert den Stand der Technik für die integrierte Modellierung städtischer Überschwemmungen mit Hilfe der Modellkopplung von Oberflächenmodellen und Kanalnetzmodellen.
Dr.-Ing. Lothar Fuchs vom itwh Hannover mit 13 Seiten (S. 57-69) Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> Zusammenfassung [des Autors] Die wesentlichen technischen Probleme der Kanalnetzbewirtschaftung sind gelöst. Der Markt bietet bewährte Messgeräte, Steuerungseinrichtungen, Datenübertragungs-, Regler- und Rechnersysteme, die sich für den Einsatz in der Stadtentwässerung eignen. Mit den heute existierenden Simulationsmodellen können die Auswirkungen von Bewirtschaftungssystemen abgeschätzt werden, bevor diese implementiert werden. Die für Bewirtschaftungssysteme notwendige Ausrüstung ist eine andere, als die traditionell in der Stadtentwässerung übliche. Sie erfordert in jedem Fall mehr und teureren Wartungsaufwand sowie anders ausgebildetes Personal. Bei einem Kostenvergleich mit konventionellen (d.h. ungesteuerten) Systemen muß die umfassende Information und Kontrolle des bewirtschafteten Systems berücksichtigt werden. Die permanente Information über den Betriebszustand sowie die in allen existierenden Bewirtschaftungssystemen erreichten Verminderungen von Regenentlastungen und (in geringerem Maße) hydraulischen Überlastungen lassen es geraten erscheinen, Kanalnetzbewirtschaftung nicht nur unter dem Gesichtspunkt der höheren Betriebskosten, sondern auch denen der möglich Einsparungen von Investitionen und der höheren Effizienz zu beurteilen. Analog lässt sich zeigen, dass bewirtschaftete Systeme kleiner ausgelegt werden können und dennoch die gleiche Effizienz besitzen wie größer dimensionierte, statisch wirkende Systeme.
Abstract des Beitrags zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> 1 S. : Bereits seit Jahrzehnten werden verschiedenste Injektions-Verfahren, welche teilweise aus den Vereinigten Staaten lizenziert wurden, in Deutschland angewendet, um Abwasserkanäle zu ertüchtigen. Die Resultate sind teilweise sehr umstritten, nicht zuletzt aufgrund unzureichender Materialeigenschaften in den Anfangsjahren der Anwendung. Viele Methoden sind darüber völlig aus dem Gebrauch gekommen und haben manchmal das ganze Verfahrensprinzip in Verruf gebracht. Mittlerweile wurden sowohl Verfahren als auch Materialien weiterentwickelt und sind nun in der Lage auch den aktuellen strengen und praxisnahen Testverfahren mittels Säuleninjektionsversuchen zur Beurteilung Umweltverträglichkeit zu genügen. Es wird ein kurzer Überblick über die derzeit am Markt befindlichen/üblichen Regelwerke, Verfahren und Materialien gegeben und die Grenzen und Möglichkeiten im Rahmen der Kanalsanierung aufgezeigt.
Dipl.-Ing. Dirk Hecker von der Ingenieurgesellschaft Tuttahs & Meyer in Aachen. Vortrag gehalten beim 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> 27 S. (S. 28-54) Zusammenfassung [des Autors]: Nach den spektakulären Hochwasserereignissen an Rhein, Elbe und Donau hat die Deutsche Vereinigung für Wasserwirtschaft, Abwasser und Abfall e. V. (DWA) einen Fachausschuss zur Erstellung eines Merkblattes M 103 „Hochwasserschutz für Abwasseranlagen“ berufen. Das Merkblatt zeigt in den Kapiteln Konzeption, Planungsgrundsätze und Hochwassermanagement eine strukturierte Vorgehensweise zur bestmöglichen Vorsorge zum Schutz der Abwasseranlagen im Hochwasserfall. Entsprechend den Forderungen des im Jahr 2005 verabschiedeten Gesetzes zur Verbesserung des vorbeugenden Hochwasserschutzes, floss in das Wasserhaushaltsgesetz unter anderem die allgemeine Verpflichtung jedes potentiell vom Hochwasser Betroffenen ein, geeignete Schutzmaßnahmen zur Schadensminimierung zu treffen. Hierbei werden speziell die Wasserversorgung und die Abwasserbeseitigung erwähnt. Im DWA-M 103 wir detailliert dargestellt wie und mit welchem Aufwand die Abwasseranlagen zu überprüfen sind und wie hierzu ein Hochwasserschutzkonzept erstellt werden kann. Zusätzlich werden Hinweise für die Planung von Abwasseranlagen in hochwassergefährdeten Bereichen gegeben, die den störungsfreien Betrieb im Hochwasserfall gewährleisten sollen. Schlussendlich werden das Hochwassermanagement und der Betrieb dargestellt und hier wichtige Anregungen gegeben im Ernstfall ausreichend vorbereitet zu sein. Das DWA-M 103 richtet sich in erster Linie an die Betreiber und Planer von Abwasseranlagen. Jedoch werden hier auch, gerade durch die Vielzahl von Checklisten, Kommunen Denkanstöße und Anregungen für die Hochwasservorsorge/-schutz von öffentlichen Gebäuden und Einrichtungen gegeben.
In: Konferenzband zur Konferenz Medienproduktion 2007, 1.12.2008. 29 S. High Quality Streaming beschäftigt sich mit High Definition Television und Mehrkanal Sound. In diesem Beitrag werden die Technologien und Anwendungsperspektiven für HD Medien-Dienstleistungen beschrieben. Der Beitrag entstand im Rahmen der Konferenz Medienproduktion „Expansion und Mobilität“ am 7. Dezember 2007. Der Beitrag beschreibt Geschäftsmodelle, Technologien und neue Anwendungen für High Quality Streaming. Neben der Präsentation wurden auch die Medienproduktionen der unterschiedlichen HQ-Mediendienste vorgeführt. Die Mediendienste sind im Rahmen der Forschungsarbeit High Quality Media Services des Studiengangs Communication and Multimedia Design (Fachbereich Elektrotechnik und Informationstechnik) an der Fachhochschule Aachen entstanden. Eine Marktevaluierung der deutschen und niederländischen Märkte, internationale Expertengesprächen sowie ein Prototypen HDMediaservices bilden die Basis der Forschungsarbeit. Die Mediendienste stehen zur Demonstration unter dem Link media.fh-aachen.de bereit. HQ-Mediendienste bedeuten: Gestochen scharfe Bilder in High Definition, volle Klänge in Surround und das über das Internet, wo doch gerade mal die briefmarkengroßen Bilder mit unscharfen Konturen und krätzenden Klängen der heutigen Portale wie YouTube Alltag sind.
- Wie kam es zu der globalen Finanzkrise? - Wodurch zeichnet sich die Finanzkrise aus? - Wer hat die Finanzkrise verschuldet? - Welche Rolle spielten Spekulanten? - Inwiefern ist die Finanzkrise selbstverschuldet? - Ist die Globalisierung Schuld an den Finanzkrisen in zahlreichen Regionen dieser Welt? - Wie wirkt sich die Finanzkrise auf die Realwirtschaft aus? - Welche Wege bieten sich, aus der Krise herauszukommen?
On 1st January 1998, the German telecom market was fully liberalised. Since then genuine competition between market participants has developed, based on a comprehensive legal and regulatory framework that provides for safeguards against unfair competition and market power by Deutsche Telekom. Today, about 10 years after the liberalisation of the telecommunications sector a revision of this regulatory approach has become necessary because at least on three dimensions the situation is quite different from the one 10 years ago: First, with numerous established alternative operators in the market monopolies have been successfully challenged and competition introduced. Second, not only is Cable TV becoming in large parts of Germany a viable alternative for the provision of broadband services but also mobile services are becoming increasingly a substitute for fixed services. Last but not least there are important technological changes under way, requiring huge investments in infrastructure upgrades for next generation networks. In the light of these new developments the question is to which extent the current regulatory approach of severe ex-ante regulatory intervention is still appropriate. Is any part of the network of the former incumbent still a bottleneck? A more light handed regulatory approach might be the right response to this new situation. The paper is organised as follows: The first section will briefly examine the economic rationale for regulating network access. Based on the assumption that regulation is always necessary when bottlenecks exist regulatory principles for an efficient network access regime will be derived. The second section compares the situation of the German market in early 1998 with the one of today. Thereby three dimensions will be considered: the degree of competition, the potential for substitution and technological developments. The third section will define some requirements for the future regulation of telecom markets. Proposals will be elaborated how to ensure competitive telecom markets in the light of new economic and technological challenges.
RaWid was the German national technology programme on transonic aerodynamics and supporting technologies, lasting from 1995 to 1998. One of the main topics was laminar wing development. Besides aerodynamic design work, many operational aspects were investigated. A manufacturing concept was developed to be applied to operational laminar wings and empennages. It was built in a large scale manufacturing demonstrator with the aerodynamic shape of a 1,5 m section of the A320 fin nose. Tolerances in shape and roughness fulfilled all requirements. The construction can easily be adapted to varying stiffness and strength requirements. Weight and manufacturing costs are comparable to common nose designs. The mock-up to be designed in ALTTA is based on this manufacturing principle. Another critical point is contamination of suction surfaces. Several tests were performed to investigate perforated titanium suction surfaces at realistic operational conditions: - a one year flight test with a suction plate in the stagnation area of the Airbus "Beluga" - a one year test of several suction plates in a ground test near the airport - a one year test of a working suction ground test installation at all weather conditions. No critical results were found. There is no long term suction degradation visible. Icing conditions and ground de-icing fluids used on airports did not pose severe problems. Some problems detected require only respection of weak design constraints.
7th International Conference on Reliability of Materials and Structures (RELMAS 2008). June 17 - 20, 2008 ; Saint Petersburg, Russia. pp 354-358. Reprint with corrections in red Introduction Analysis of advanced structures working under extreme heavy loading such as nuclear power plants and piping system should take into account the randomness of loading, geometrical and material parameters. The existing reliability are restricted mostly to the elastic working regime, e.g. allowable local stresses. Development of the limit and shakedown reliability-based analysis and design methods, exploiting potential of the shakedown working regime, is highly needed. In this paper the application of a new algorithm of probabilistic limit and shakedown analysis for shell structures is presented, in which the loading and strength of the material as well as the thickness of the shell are considered as random variables. The reliability analysis problems may be efficiently solved by using a system combining the available FE codes, a deterministic limit and shakedown analysis, and the First and Second Order Reliability Methods (FORM/SORM). Non-linear sensitivity analyses are obtained directly from the solution of the deterministic problem without extra computational costs.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der klassischen Plastizitätstheorie, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Eine FEM-basierte Traglast- und Einspielanalyse für ideal plastisches Material wurde auf ein kinematisch verfestigendes Materialgesetz erweitert und in das Finite Element Programm PERMAS implementiert. In einem einfachen Zug-Torsionsexperiment wurde eine Hohlprobe mit konstanter Torsion und zyklischer Zugbelastung beansprucht, um die neue Implementierung zu verifizieren. Es konnte gezeigt werden, dass die Einspielanalyse gut mit den experimentellen Ergebnissen übereinstimmt. Bei Verfestigung lassen sich wesentlich größere Sicherheiten nachweisen. Dieses Potential bedarf weiterer experimenteller Absicherung. Parallel dazu ist die Eisnpieltheorie auf fortschrittliche Verfestigungsansätze zu erweitern.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist ähnlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA entwickelten Zuverlässigkeitsanalysen sind nichlinear erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar. Auf die vorgesehenen Erweiterungen der Werkstoffmodellierung für nichtlineare Verfestigung und für Schädigung konnte hier nicht eingegangen werden. Es herrscht ein deutlicher Mangel an Experimenten zum Nachweis der Grenzen zwischen elastischem Einspielen und dem Versagen durch LCF oder durch Ratchetting.
Im Rahmen von Ermüdungsanalysen ist nachzuweisen, daß die thermisch bedingten fortschreitenden Deformationen begrenzt bleiben. Hierzu ist die Abgrenzung des Shakedown-Bereiches (Einspielen) vom Ratchetting-Bereich (fortschreitende Deformation) von Interesse. Im Rahmen eines EU-geförderten Forschungsvorhabens wurden Experimente mit einem 4-Stab-Modell durchgeführt. Das Experiment bestand aus einem wassergekühlten inneren Rohr und drei isolierten und beheizbaren äußeren Probestäben. Das System wurde durch alternierende Axialkräfte, denen alternierende Temperaturen an den äußeren Stäben überlagert wurden, belastet. Die Versuchsparameter wurden teilweise nach vorausgegangenen Einspielanalysen gewählt. Während der Versuchsdurchführung wurden Temperaturen und Dehnungen zeitabhängig gemessen. Begleitend und nachfolgend zur Versuchsdurchführung wurden die Belastungen und die daraus resultierenden Beanspruchungen nachvollzogen. Bei dieser inkrementellen elasto-plastischen Analyse mit dem Programm ANSYS wurden unterschiedliche Werkstoffmodelle angesetzt. Die Ergebnisse dieser Simulationsberechnung dienen dazu, die Shakedown-Analysen mittels FE-Methode zu verifizieren.
Limit and shakedown theorems are exact theories of classical plasticity for the direct computation of safety factors or of the load carrying capacity under constant and varying loads. Simple versions of limit and shakedown analysis are the basis of all design codes for pressure vessels and pipings. Using Finite Element Methods more realistic modeling can be used for a more rational design. The methods can be extended to yield optimum plastic design. In this paper we present a first implementation in FE of limit and shakedown analyses for perfectly plastic material. Limit and shakedown analyses are done of a pipe–junction and a interaction diagram is calculated. The results are in good correspondence with the analytic solution we give in the appendix.
Genaue Kenntnis der Spannungen und Verformungen in passiven Komponenten gewinnt man mit detailierten inelastischen FEM Analysen. Die lokale Beanspruchung läßt sich aber nicht direkt mit einer Beanspruchbarkeit im strukturmechanischen Sinne vergleichen. Konzentriert man sich auf die Frage nach der Tragfähigkeit, dann vereinfacht sich die Analyse. Im Rahmen der Plastizitätstheorie berechnen Traglast- und Einspielanalyse die tragbaren Lasten direkt und exakt. In diesem Beitrag wird eine Implementierung der Traglast- und Einspielsätze in ein allgemeines FEM Programm vorgestellt, mit der die Tragfähigkeit passiver Komponenten direkt berechnet wird. Die benutzten Konzepte werden in Bezug auf die übliche Strukturanalyse erläutert. Beispiele mit lokal hoher Beanspruchung verdeutlichen die Anwendung der FEM basierten Traglast- und Einspielanalysen. Die berechneten Interaktionsdiagramme geben einen guten Überblick über die möglichen Betriebsbereiche passiver Komponenten. Die Traglastanalyse bietet auch einen strukturmechanischen Zugang zur Kollapslast rißbehafteter Komponenten aus hochzähem Material.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. Die Autoren möchten der Europäischen Kommission an dieser Stelle für die Förderung ausdrücklich danken. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist änhlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA geplante Zuverlässigkeitsanalyse ist erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar.
Abstracts of the ACHEMA 2000 - International Meeting on Chemical Engineering, Environmental Protection and Biotechnology, May 22 - 27, 2000. Frankfurt am Main. Achema 2000 : special edition / Linde. [Ed.: Linde AG. Red.: Volker R. Leski]. - Wiesbaden : Linde AG, 2000. - 56 p. : Ill., . - pp: 79 - 81
A procedure for the evaluation of the failure probability of elastic-plastic thin shell structures is presented. The procedure involves a deterministic limit and shakedown analysis for each probabilistic iteration which is based on the kinematical approach and the use the exact Ilyushin yield surface. Based on a direct definition of the limit state function, the non-linear problems may be efficiently solved by using the First and Second Order Reliabiblity Methods (Form/SORM). This direct approach reduces considerably the necessary knowledge of uncertain technological input data, computing costs and the numerical error. In: Computational plasticity / ed. by Eugenio Onate. Dordrecht: Springer 2007. VII, 265 S. (Computational Methods in Applied Sciences ; 7) (COMPLAS IX. Part 1 . International Center for Numerical Methods in Engineering (CIMNE)). ISBN 978-1-402-06576-7 S. 186-189
Market data for the German telecom market shows that Deutsche Telekom as the former incumbent is constantly loosing shares on all arkets for voice telephony: the market for local calls, the market for long-distance calls and the market for international calls. At the same time prices decline steadily with the latest trend being that operators offer voice services free of charge, the costs of which are covered by a monthly subscription charge. Against this background the paper examines the state of policy and regulatory reform in the telecommunications sector in Germany almost 10 years after the liberalisation of the fixed telecommunications market. Thereby the focus is on the analysis of the competitive conditions that have been established on the German market for voice telephony services. If these retail markets are competitive, there might be a need to remove remaining regulatory provisions. In the new environment of converging markets the future challenge of regulating fixed telecom markets might be to ensure that access to the network and/or services of a potentially dominant provider in a relevant market will satisfy requirements for openness and non-discrimination.
Proceedings of the International Conference on Material Theory and Nonlinear Dynamics. MatDyn. Hanoi, Vietnam, Sept. 24-26, 2007, 8 p. In this paper, a method is introduced to determine the limit load of general shells using the finite element method. The method is based on an upper bound limit and shakedown analysis with elastic-perfectly plastic material model. A non-linear constrained optimisation problem is solved by using Newton’s method in conjunction with a penalty method and the Lagrangean dual method. Numerical investigation of a pipe bend subjected to bending moments proves the effectiveness of the algorithm.
O Perfil Reiss apresenta no resultado uma visão da estrutura dos motivos e impulsos de uma pessoa. O ponto de saída para a análise do resultado é o conhecimento de que os motivos vitais (= valores e metas de sobrevivência) formam a moldura, na qual as competências e capacidades que uma pessoa possui possam se desabrochar de forma ideal. A partir desse princípio, não existe no Perfil Reiss nenhum resultado que se possa classificar como correto ou falso, nem como bom ou mau. Uma comparação entre o resultado do Perfil Reiss e o conteúdo de uma atividade apresentada ou ambicionada dá informação sobre até que ponto a capacidade de rendimento de uma pessoa nessa posição pode vir ou virá a se desenvolver por um longo tempo.
Concept, scientific research and managerial applications of Provocative Coaching, according to the „Provocative Therapy“ of Prof. Dr. Frank Farrelly (University of Wisconsin, U.S.A) in terms of an application of the Provocative Communication Style in specific situations of practical leadership, especially in the role of a coach for their subordinates.
Hands-on-training in high technology areas is usually limited due to the high cost for lab infrastructure and equipment. One specific example is the field of MEMS, where investment and upkeep of clean rooms with microtechnology equipment is either financed by production or R&D projects greatly reducing the availability for education purposes. For efficient hands-on-courses a MEMS training foundry, currently used jointly by six higher education institutions, was established at FH Kaiserslautern. In a typical one week course, students manufacture a micromachined pressure sensor including all lithography, thin film and packaging steps. This compact and yet complete program is only possible because participants learn to use the different complex machines in advance via a Virtual Training Lab (VTL). In this paper we present the concept of the MEMS training foundry and the VTL preparation together with results from a scientific evaluation of the VTL over the last three years.
The nonlinear scalar constitutive equations of gases lead to a change in sound speed from point to point as would be found in linear inhomogeneous (and time dependent) media. The nonlinear tensor constitutive equations of solids introduce the additional local effect of solution dependent anisotropy. The speed of a wave passing through a point changes with propagation direction and its rays are inclined to the front. It is an open question whether the widely used operator splitting techniques achieve a dimensional splitting with physically reasonable results for these multi-dimensional problems. May be this is the main reason why the theoretical and numerical investigations of multi-dimensional wave propagation in nonlinear solids are so far behind gas dynamics. We hope to promote the subject a little by a discussion of some fundamental aspects of the solution of the equations of nonlinear elastodynamics. We use methods of characteristics because they only integrate mathematically exact equations which have a direct physical interpretation.
A key feature of future broadband markets will be diversity of access technologies, meaning that numerous technologies will be exploited for broadband communication. Various factors will affect the success of these future broadband markets, the regulatory policy being one amongst others. So far, a coherent regulatory approach does not exist as to broadband markets. First results of policies so far suggest that less sector-specific regulation is likely to occur. Instead, regulators must ensure that access to networks and services of potentially dominant providers in a relevant broadband market will satisfy requirements for openness and non-discrimination. In this environment the future challenge of regulationg broadband markets will be to set the right incentives for investment into new infrastructures. This paper examines whether there is a need for the regulation of future broadband access markets an if yes, what is the appropriate regulatory tool to do so. Thereby the focus is on the analysis of European broadband markets and the regulatory approaches applied. The first section provides a description of the characteristics of future broadband markets. The second section discusses possible bottlenecks on broadband markets an their regulatory implications. The third section will examine regulatory issues concerning access to broadband networks in more detail. This will be done by comparing the regulatory approaches of European countries and the results in terms of bradband penetration. The final section will give key recommendations for a regulatory strategy on brandband access markets.
In: Technical feasibility and reliability of passive safety systems for nuclear power plants. Proceedings of an Advisory Group Meeting held in Jülich, 21-24 November 1994. - Vienna , 1996. - Seite: 43 - 55 IAEA-TECDOC-920 Abstract: It is shown that the difficulty for probabilistic fracture mechanics (PFM) is the general problem of the high reliability of a small population. There is no way around the problem as yet. Therefore what PFM can contribute to the reliability of steel pressure boundaries is demonstrated with the example of a typical reactor pressure vessel and critically discussed. Although no method is distinguishable that could give exact failure probabilities, PFM has several additional chances. Upper limits for failure probability may be obtained together with trends for design and operating conditions. Further, PFM can identify the most sensitive parameters, improved control of which would increase reliability. Thus PFM should play a vital role in the analysis of steel pressure boundaries despite all shortcomings.