Refine
Year of publication
Institute
- Fachbereich Elektrotechnik und Informationstechnik (310)
- Fachbereich Energietechnik (263)
- Fachbereich Medizintechnik und Technomathematik (253)
- Fachbereich Luft- und Raumfahrttechnik (214)
- Fachbereich Maschinenbau und Mechatronik (210)
- Solar-Institut Jülich (167)
- IfB - Institut für Bioengineering (155)
- Fachbereich Bauingenieurwesen (139)
- Fachbereich Wirtschaftswissenschaften (75)
- ECSM European Center for Sustainable Mobility (62)
Language
- English (1197)
- German (483)
- Italian (1)
- Multiple languages (1)
- Spanish (1)
Document Type
- Conference Proceeding (1683) (remove)
Keywords
- Biosensor (25)
- Blitzschutz (15)
- CAD (11)
- Finite-Elemente-Methode (11)
- civil engineering (11)
- Bauingenieurwesen (10)
- Lightning protection (9)
- Einspielen <Werkstoff> (6)
- Telekommunikationsmarkt (6)
- shakedown analysis (6)
Dipl.-Ing. Hartmut Hoevel - Erftverband, Bergheim. 3 Seiten (S. 75-77). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Die Erft ist ein linker Nebenfluss des Rheins. Der Fluss ist durch eingeleitetes Sümpfungswasser aus dem rheinischen Braunkohletagebau hinsichtlich der Wassermenge und der Temperatur stark belastet. Die vorgestellten Überlegungen betreffen die Fragen: 1. Wie soll die Erft im Jahr 2045, also nach dem voraussichtlichen Ende der Tagebauaktivitäten im Rheinischen Braunkohlerevier und damit einhergehender Beenigung der Sümpfungswassereinleitung, aussehen? 2. Wie schnell und auf welche Weise soll die Umgestaltung der Erft vonstatten gehen?
Mischwassereinleitungen in Gewässer nach BWK Merkblatt M3 - Vorteile des detaillierten Nachweises
(2009)
Dipl.-Ing. Brigitte Huber und Dr.-Ing. Gerd Demny - Wasserverband Eifel Rur, Düren. 16 Seiten ( S. 59-74). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Zusammenfassung [der Autoren] Für das städtisch geprägte Einzugsgebiet des Broicher Baches sind ein vereinfachter und ein detaillierter Nachweis nach BWK-M3 durchgeführt worden. Dabei zeigt sich, dass die Methodik des vereinfachten Nachweises nicht geeignet ist, um eine realitätsnahe Abbildung der einleitungsgeprägten Abflüsse des Gewässers zu erhalten. Dies ist insbesondere auf die Vernachlässigung von Wellentranslation und -retention im Gerinne zurückzuführen. Die dadurch entstehende Fehleinschätzung der Abflussverhältnisse versperrt den Blick auf eine situationsgerechte Maßnahmenplanung. Der mit Hilfe eines NA-Modells geführte detaillierte Nachweis ist zwar in der Erstellung aufwändiger, zeichnet aber ein reales Bild der Abflusserhöhung durch Einleitungen. Mit Hilfe des Modells können die wesentlichen Einflüsse schnell lokalisiert und zielführende Maßnahmenvarianten identifiziert werden. In dem hier vorgestellten Beispiel des Broicher Baches können die ursprünglich identifizierten acht Maßnahmen auf eine reduziert werden. Das Gesamtvolumen der erforderlichen Rückhaltungen wird um die Hälfte verringert. Der Vergleich beider Nachweismethoden legt nach Ansicht der Autoren nahe, den vereinfachten Nachweis höchstens für eine erste Einschätzung des Maßnahmenbedarfs anzuwenden. Die Maßnahmenidentifikation und -dimensionierung sollte grundsätzlich mit der detaillierten Nachweismethode durchgeführt werden, die auf einem entsprechenden NA-Modell basiert. Dies gilt insbesondere für Gewässerstrecken, deren Abfluss durch mehrere, hintereinander liegende Einleitungsstellen geprägt ist.
Dr.-Ing. Oliver Stoschek [u.a.] DHI Wasser und Umwelt GmbH, Syke. 14 S. (S. 45-58). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Ökologische Modelle zur Berechnung der Temperaturveränderung und den Einfluss von Kühlwasser auf die Wassertemperatur der Elbe. Die vorgelegte Arbeit wurde beauftragt und unterstützt von der ARGE Elbe im Zuge der Neuauflage des Wärmelastplans Elbe.
Dipl.-Ing. Stefan Overkamp - GISWORKS GbR, Velbert. 11 S. (S. 7-17). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Aus der Gliederung: 1 Geoinformationssysteme 2 Anforderungen an eine kommunale Geodateninfrastruktur (GDI) 3 Komponenten einer GDI 3.1 Geodatenmanagement 3.2 Geodatenhaltung 3.3 High-End-GIS 3.4 intraGIS 4 GISWORKS 5 Weiterführende Informationen
Dr.-Ing. Martin Wolf ; Dipl.-Kaufm. Daniel Ulbrich , Dr. Pecher und Partner Ingenieurgesellschaft mbH, München. 31 S. (S. 139-168). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft < 1, 2007, Aachen>. Zusammenfasung [der Autoren] Die öffentlichen Kanalnetze Deutschlands stellen mit einem Wert von rd. 330 Mrd. € ein enormes Anlagevermögen dar. Auf Grund des oft schlechten Zustandes und geringer Ausgaben zur Instandhaltung und Erneuerung ist zu erwarten, dass durch die gegenwärtige Sanierungspraxis eher ein Substanzwertverzehr des Kanalnetzes als ein Substanzwerterhalt im Sinne des Generationenvertrages erzielt wird. Für einen nachhaltigen Betrieb und Erhalt der Kanalnetze sind deshalb Sanierungsstrategien erforderlich, die neben den technischen und gesetzlichen Anforderungen auch den mittel- und langfristigen Substanzwertverlauf berücksichtigen. Dieser wird beeinflusst vom erforderlichen oder durchgeführten Sanierungsumfang, Art und Zusammensetzung der ausgewählten Maßnahmen sowie der zeitlichen Abfolge der Sanierungsmaßnahmen. Erheblichen Einfluss auf den Substanzwertverlauf hat zudem die Berücksichtigung der hydraulischen Verhältnisse sowie der optisch nicht sichtbaren Undichtheiten. Entsprechend ist es erforderlich, die tatsächlich vorhandenen Defizite zu ermitteln und die Sanierungsmaßnahmen sowie eine Strategie zur Umsetzung zu erarbeiten. Da sich gezeigt hat, dass alleine die Einhaltung der technischen und gesetzlichen Anforderung für einen Substanzwerterhalt nicht ausreicht, muss die geplante Strategie im Dr.-Ing. Martin Wolf 139 von 170 Decision-Support-System kokas zur Sanierungsplanung und Strategieentwicklung 1. Aachener Softwaretag in der Wasserwirtschaft Hinblick auf die nachhaltige Wertentwicklung überprüft und ggf. Anpassungen vorgenommen werden. Kurzfristig erzielte Einsparungen durch reduzierten Schadensumfang oder einseitige Maßnahmenwahl ermöglichen zwar im günstigsten Fall, die Anforderungen einzuhalten, gehen jedoch zwangsläufig zu Lasten des Substanzwertes und führen mittel- und langfristig zu einer Verschärfung der Kosten- und Gebührensituation. Der monetäre, am konkreten Sanierungsaufwand orientierte Substanzwertansatz ermöglicht dabei, technische und kaufmännische Gesichtspunkte praxisnah zu verknüpfen und den bestmöglichen Ausgleich zwischen den gegenläufigen Zielen Substanzwerterhalt und Gebührenkonstanz zu finden.
Dipl.Ing. Johann Andorfer , Tandler.com GmbH, Buch a. Erlbach. Abstract zum 1. Aachener Softwaretag in der Wasserwirtschaft <1,2007, Aachen>. 2 S. (S. 136-137) Eine nachhaltige Sicherung der Funktionalität und der ökologischen Verträglichkeit eines mittleren bis großen Kanalnetzes erfordert eine umfassende und detaillierte Modellierung in Raum und Zeit. Um den in den Richtlinien geforderten statistischen Anforderungen gerecht zu werden und die jährlichen Häufigkeiten, Mengen und Zeiträume der Belastungen erwartungstreu abschätzen zu können, ist es zielführend und notwendig, lange Zeiträume und die Gesamtheit der Einzugsgebiete möglichst detailliert zu betrachten. Die hydraulische Funktionalität und Sicherheit soll meistens mit Hilfe zeitsymmetrischer (hydrodynamischer) Verfahren nur durch Betrachtung von Modellregen, allenfalls Regenserien, sichergestellt werden. Für die Abschätzung der jährlich zu erwartenden Emissionen in unsere natürlichen Gewässer mit ihren Mengen, Frequenzen und Dauern werden normalerweise Langzeitsimulationen natürlicher Regenreihen über möglichst große Zeiträume mit zeitasymmetrischen (hydrologischen) Verfahren durchgeführt. Die betrachteten Kanalnetze werden zumeist vereinfacht (Grobnetze), um die Rechenzeiten erträglicher zu gestalten. Wünschenswert wäre jedoch eine allen Anforderungen gerecht werdende wirklichkeitsnahe Modellierung des gesamten Kanalnetzes in all seinen Details, Vermaschungen und Wechselwirkungen (Feinnetz) und dessen zeitsymmetrische und damit verlässliche Simulation mit langjährigen Regenreihen. Bereits vor 15 Jahren wurde im Hause Tandler begonnen, die Berechnungssoftware durch Parallelisierung auf symmetrische Multiprozessortechnologien auszurichten. In neuerer Zeit hält diese Technik durch die Mehrkernprozessoren in normalen Notebooks und PCs Einzug in die Ingenieurbüros und Abwasserbetriebe und sorgt schon für wesentliche Einsparungen an Rechenzeit. Doch erst durch die Kombination der Parallelisierung mit dem Prinzip des verteilten Rechnens (d.h. die Einbeziehung mehrerer PCs eines Netzwerkes in die Berechnung) erhält man die Chance ausreichend Rechenkapazität zur Verfügung zu stellen, um nicht nur eine einzelne Langzeitsimulation eines Feinnetzes durchzuführen, sondern sogar mehrere Sanierungsalternativen zu überprüfen. Die zukunftsweisenden Arbeiten von Dipl. Math. R. Tandler auf diesem Gebiet sind Thema dieses Vortrags.
Dr.-Ing. Raju M. Rohde , Dorsch Consult Wasser und Umwelt GmbH, München mit 32 Folien (S. 103-134). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen>. Das System BaSYS.L.E.O. Ganglinien-Volumen-Methode Hydrodynamische Kanalnetzberechnung Hydraulische Objekte Hydrodynamische Schmutzfrachtberechnung
Das Oberflächenabflussmodell von Keser und die Grenzwertmethode : Die Abflussbildung im Vergleich.
(2007)
Dipl.-Ing. Rudolf Herzog , Rehm Software Berg / Ravensburg. 9 S. (S. 94-102). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft a1, 2007, Aachen>. Zusammenfassung [des Autors] Die grundlegenden Ansätze der beiden Modelle sind ähnlich. Der hauptsächliche Unterschied liegt darin, dass die Grenzwertmethode die Angabe einer Bodenart erfordert, die ihrerseits wieder Probleme verursachen kann. Es kann nicht davon ausgegangen werden, dass die Bodenarten homogen anliegen. Die ersatzweise Vorgabe einer für alle Einzugsgebiete einheitlichen Bodenart hilft da nicht wirklich weiter. Es stellt sich vielmehr die Frage, ob der zusätzliche Aufwand eine signifikante Verbesserung des Ereignisses zur Folge hat. Der Vorteil der Grenzwertmethode liegt auf der Hand: Die Parameterwahl ermöglicht eine flexible Steuerung des Modells, in die Abflussbildung kann differenziert eingegriffen werden. Das NA-Geschehen kann weitgehend kalibriert werden. Es ist allerdings auch zu bedenken, dass die Flexibilität des Modells risikobehaftet ist - die Abflussbildung kann nach Belieben beeinflusst werden. Fazit: Flexibel in der Anwendung, bei NA-Messung empfehlenswert. Im Allgemeinen geringere Abflussmengen als Keser. Die Blackbox von Keser ist zwar nicht steuerbar, entzieht sich damit aber auch Wissensdefiziten und Manipulationseinflüssen. Über Parameter und deren Auswirkungen muss nicht spekuliert werden. Wenn mehrere Personen mit dem Modell von Keser arbeiten, ergeben sich im Gegensatz zur Grenzwertmethode zwangsweise dieselben Ergebnisse - gleiche geometrische Oberflächendaten vorausgesetzt. Außerdem kommt Keser ohne die Bodenart aus. Fazit: Bei BFG >20%, einfache Handhabung, geringer Aufwand. Gegenüber der Grenzwertmethode (mittlere Verhältnisse) jedoch etwas höhere Abflüsse. Das Programmpaket HYKAS der Fa. Rehm Software ermöglicht u.a. den Nachweis von Kanalnetzen und bietet in diesem Zusammenhang beide Modellansätze zur Auswahl an. Der Programmanwender kann damit eine am Datenbestand bzw. an den Vorgaben des Auftraggebers ausgerichtete Modellauswahl treffen. Die realitätsnahe Ermittlung der Oberflächenabflüsse ist kompliziert. Weitere Unwegsamkeiten warten nach der Abflussbildung bei der Abflusskonzentration auf: Es ist z.B. die Festlegung der Fließlänge auf der Oberfläche erforderlich... Es ist noch ein weiter Weg bis zur Kläranlage.
Dipl.-Ing. Ralf Engels - DHI Wasser und Umwelt GmbH, Syke. 24 S. (S. 70-93) Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1,2007, Aachen> Einleitung [des Autors] Die hydrodynamische Kanalnetzmodellierung ist ein Standardwerkzeug für die Bemessung von Kanalnetzen. Neben der Berechnung der hydrologischen und hydraulischen Gegebenheiten in einem städtischen Einzugsgebiet gehören auch weiterführende Technologien mittlerweile zum Standard. So können alle steuerbaren Elemente eines Kanalnetzes dynamisch so optimiert werden, dass die Leistungsfähigkeit des Kanalnetzes zusätzlich gesteigert werden kann. Automatische Werkzeuge zur dynamischen hydraulischen Schmutzfrachtberechnung ermöglichen die Erweiterung der Steuerung – insbesondere von Entlastungsanlagen – im Hinblick auf die entlasteten Schmutzfrachten und geben darüber hinaus detaillierte Informationen für den Betrieb der Kläranlage. Weiterführende biologische Prozessmodellierungen ergänzen dieses Themenfeld. GIS Werkzeuge können bei der räumlich differenzierten Modellierung von Kanalnetzen wertvolle Dienste leisten. Die detaillierte Betrachtung einzelner Haltungsflächen in ihrem räumlichen Zusammenhang ist damit ebenso möglich wie eine komplette Verwaltung aller für die Kanalnetzmodellierung notwendigen Daten in einem übersichtlichen grafischen Menü. Die Grenzen der Kanalnetzmodellierung lagen in früheren Zeiten an dessen Rand. Detaillierte Informationen über die Wege des Wassers auf der Geländeoberfläche, an der Schnittstelle zu Vorflutern und in der Interaktion mit Grundwasser waren bisher nicht modelltechnisch bewertbar. Eine dynamische Kopplung verschiedener Modelle zur Darstellung aller relevanten hydraulischen Prozesse ermöglicht eine integrative Betrachtung aller möglichen Wege, die das Wasser in der Stadt nehmen kann (Mark & Djordjevic, 2006). Dieser Beitrag präsentiert den Stand der Technik für die integrierte Modellierung städtischer Überschwemmungen mit Hilfe der Modellkopplung von Oberflächenmodellen und Kanalnetzmodellen.
Dr.-Ing. Lothar Fuchs vom itwh Hannover mit 13 Seiten (S. 57-69) Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> Zusammenfassung [des Autors] Die wesentlichen technischen Probleme der Kanalnetzbewirtschaftung sind gelöst. Der Markt bietet bewährte Messgeräte, Steuerungseinrichtungen, Datenübertragungs-, Regler- und Rechnersysteme, die sich für den Einsatz in der Stadtentwässerung eignen. Mit den heute existierenden Simulationsmodellen können die Auswirkungen von Bewirtschaftungssystemen abgeschätzt werden, bevor diese implementiert werden. Die für Bewirtschaftungssysteme notwendige Ausrüstung ist eine andere, als die traditionell in der Stadtentwässerung übliche. Sie erfordert in jedem Fall mehr und teureren Wartungsaufwand sowie anders ausgebildetes Personal. Bei einem Kostenvergleich mit konventionellen (d.h. ungesteuerten) Systemen muß die umfassende Information und Kontrolle des bewirtschafteten Systems berücksichtigt werden. Die permanente Information über den Betriebszustand sowie die in allen existierenden Bewirtschaftungssystemen erreichten Verminderungen von Regenentlastungen und (in geringerem Maße) hydraulischen Überlastungen lassen es geraten erscheinen, Kanalnetzbewirtschaftung nicht nur unter dem Gesichtspunkt der höheren Betriebskosten, sondern auch denen der möglich Einsparungen von Investitionen und der höheren Effizienz zu beurteilen. Analog lässt sich zeigen, dass bewirtschaftete Systeme kleiner ausgelegt werden können und dennoch die gleiche Effizienz besitzen wie größer dimensionierte, statisch wirkende Systeme.
Abstract des Beitrags zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> 1 S. : Bereits seit Jahrzehnten werden verschiedenste Injektions-Verfahren, welche teilweise aus den Vereinigten Staaten lizenziert wurden, in Deutschland angewendet, um Abwasserkanäle zu ertüchtigen. Die Resultate sind teilweise sehr umstritten, nicht zuletzt aufgrund unzureichender Materialeigenschaften in den Anfangsjahren der Anwendung. Viele Methoden sind darüber völlig aus dem Gebrauch gekommen und haben manchmal das ganze Verfahrensprinzip in Verruf gebracht. Mittlerweile wurden sowohl Verfahren als auch Materialien weiterentwickelt und sind nun in der Lage auch den aktuellen strengen und praxisnahen Testverfahren mittels Säuleninjektionsversuchen zur Beurteilung Umweltverträglichkeit zu genügen. Es wird ein kurzer Überblick über die derzeit am Markt befindlichen/üblichen Regelwerke, Verfahren und Materialien gegeben und die Grenzen und Möglichkeiten im Rahmen der Kanalsanierung aufgezeigt.
Dipl.-Ing. Dirk Hecker von der Ingenieurgesellschaft Tuttahs & Meyer in Aachen. Vortrag gehalten beim 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> 27 S. (S. 28-54) Zusammenfassung [des Autors]: Nach den spektakulären Hochwasserereignissen an Rhein, Elbe und Donau hat die Deutsche Vereinigung für Wasserwirtschaft, Abwasser und Abfall e. V. (DWA) einen Fachausschuss zur Erstellung eines Merkblattes M 103 „Hochwasserschutz für Abwasseranlagen“ berufen. Das Merkblatt zeigt in den Kapiteln Konzeption, Planungsgrundsätze und Hochwassermanagement eine strukturierte Vorgehensweise zur bestmöglichen Vorsorge zum Schutz der Abwasseranlagen im Hochwasserfall. Entsprechend den Forderungen des im Jahr 2005 verabschiedeten Gesetzes zur Verbesserung des vorbeugenden Hochwasserschutzes, floss in das Wasserhaushaltsgesetz unter anderem die allgemeine Verpflichtung jedes potentiell vom Hochwasser Betroffenen ein, geeignete Schutzmaßnahmen zur Schadensminimierung zu treffen. Hierbei werden speziell die Wasserversorgung und die Abwasserbeseitigung erwähnt. Im DWA-M 103 wir detailliert dargestellt wie und mit welchem Aufwand die Abwasseranlagen zu überprüfen sind und wie hierzu ein Hochwasserschutzkonzept erstellt werden kann. Zusätzlich werden Hinweise für die Planung von Abwasseranlagen in hochwassergefährdeten Bereichen gegeben, die den störungsfreien Betrieb im Hochwasserfall gewährleisten sollen. Schlussendlich werden das Hochwassermanagement und der Betrieb dargestellt und hier wichtige Anregungen gegeben im Ernstfall ausreichend vorbereitet zu sein. Das DWA-M 103 richtet sich in erster Linie an die Betreiber und Planer von Abwasseranlagen. Jedoch werden hier auch, gerade durch die Vielzahl von Checklisten, Kommunen Denkanstöße und Anregungen für die Hochwasservorsorge/-schutz von öffentlichen Gebäuden und Einrichtungen gegeben.
In: Konferenzband zur Konferenz Medienproduktion 2007, 1.12.2008. 29 S. High Quality Streaming beschäftigt sich mit High Definition Television und Mehrkanal Sound. In diesem Beitrag werden die Technologien und Anwendungsperspektiven für HD Medien-Dienstleistungen beschrieben. Der Beitrag entstand im Rahmen der Konferenz Medienproduktion „Expansion und Mobilität“ am 7. Dezember 2007. Der Beitrag beschreibt Geschäftsmodelle, Technologien und neue Anwendungen für High Quality Streaming. Neben der Präsentation wurden auch die Medienproduktionen der unterschiedlichen HQ-Mediendienste vorgeführt. Die Mediendienste sind im Rahmen der Forschungsarbeit High Quality Media Services des Studiengangs Communication and Multimedia Design (Fachbereich Elektrotechnik und Informationstechnik) an der Fachhochschule Aachen entstanden. Eine Marktevaluierung der deutschen und niederländischen Märkte, internationale Expertengesprächen sowie ein Prototypen HDMediaservices bilden die Basis der Forschungsarbeit. Die Mediendienste stehen zur Demonstration unter dem Link media.fh-aachen.de bereit. HQ-Mediendienste bedeuten: Gestochen scharfe Bilder in High Definition, volle Klänge in Surround und das über das Internet, wo doch gerade mal die briefmarkengroßen Bilder mit unscharfen Konturen und krätzenden Klängen der heutigen Portale wie YouTube Alltag sind.
- Wie kam es zu der globalen Finanzkrise? - Wodurch zeichnet sich die Finanzkrise aus? - Wer hat die Finanzkrise verschuldet? - Welche Rolle spielten Spekulanten? - Inwiefern ist die Finanzkrise selbstverschuldet? - Ist die Globalisierung Schuld an den Finanzkrisen in zahlreichen Regionen dieser Welt? - Wie wirkt sich die Finanzkrise auf die Realwirtschaft aus? - Welche Wege bieten sich, aus der Krise herauszukommen?
On 1st January 1998, the German telecom market was fully liberalised. Since then genuine competition between market participants has developed, based on a comprehensive legal and regulatory framework that provides for safeguards against unfair competition and market power by Deutsche Telekom. Today, about 10 years after the liberalisation of the telecommunications sector a revision of this regulatory approach has become necessary because at least on three dimensions the situation is quite different from the one 10 years ago: First, with numerous established alternative operators in the market monopolies have been successfully challenged and competition introduced. Second, not only is Cable TV becoming in large parts of Germany a viable alternative for the provision of broadband services but also mobile services are becoming increasingly a substitute for fixed services. Last but not least there are important technological changes under way, requiring huge investments in infrastructure upgrades for next generation networks. In the light of these new developments the question is to which extent the current regulatory approach of severe ex-ante regulatory intervention is still appropriate. Is any part of the network of the former incumbent still a bottleneck? A more light handed regulatory approach might be the right response to this new situation. The paper is organised as follows: The first section will briefly examine the economic rationale for regulating network access. Based on the assumption that regulation is always necessary when bottlenecks exist regulatory principles for an efficient network access regime will be derived. The second section compares the situation of the German market in early 1998 with the one of today. Thereby three dimensions will be considered: the degree of competition, the potential for substitution and technological developments. The third section will define some requirements for the future regulation of telecom markets. Proposals will be elaborated how to ensure competitive telecom markets in the light of new economic and technological challenges.
RaWid was the German national technology programme on transonic aerodynamics and supporting technologies, lasting from 1995 to 1998. One of the main topics was laminar wing development. Besides aerodynamic design work, many operational aspects were investigated. A manufacturing concept was developed to be applied to operational laminar wings and empennages. It was built in a large scale manufacturing demonstrator with the aerodynamic shape of a 1,5 m section of the A320 fin nose. Tolerances in shape and roughness fulfilled all requirements. The construction can easily be adapted to varying stiffness and strength requirements. Weight and manufacturing costs are comparable to common nose designs. The mock-up to be designed in ALTTA is based on this manufacturing principle. Another critical point is contamination of suction surfaces. Several tests were performed to investigate perforated titanium suction surfaces at realistic operational conditions: - a one year flight test with a suction plate in the stagnation area of the Airbus "Beluga" - a one year test of several suction plates in a ground test near the airport - a one year test of a working suction ground test installation at all weather conditions. No critical results were found. There is no long term suction degradation visible. Icing conditions and ground de-icing fluids used on airports did not pose severe problems. Some problems detected require only respection of weak design constraints.
7th International Conference on Reliability of Materials and Structures (RELMAS 2008). June 17 - 20, 2008 ; Saint Petersburg, Russia. pp 354-358. Reprint with corrections in red Introduction Analysis of advanced structures working under extreme heavy loading such as nuclear power plants and piping system should take into account the randomness of loading, geometrical and material parameters. The existing reliability are restricted mostly to the elastic working regime, e.g. allowable local stresses. Development of the limit and shakedown reliability-based analysis and design methods, exploiting potential of the shakedown working regime, is highly needed. In this paper the application of a new algorithm of probabilistic limit and shakedown analysis for shell structures is presented, in which the loading and strength of the material as well as the thickness of the shell are considered as random variables. The reliability analysis problems may be efficiently solved by using a system combining the available FE codes, a deterministic limit and shakedown analysis, and the First and Second Order Reliability Methods (FORM/SORM). Non-linear sensitivity analyses are obtained directly from the solution of the deterministic problem without extra computational costs.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der klassischen Plastizitätstheorie, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Eine FEM-basierte Traglast- und Einspielanalyse für ideal plastisches Material wurde auf ein kinematisch verfestigendes Materialgesetz erweitert und in das Finite Element Programm PERMAS implementiert. In einem einfachen Zug-Torsionsexperiment wurde eine Hohlprobe mit konstanter Torsion und zyklischer Zugbelastung beansprucht, um die neue Implementierung zu verifizieren. Es konnte gezeigt werden, dass die Einspielanalyse gut mit den experimentellen Ergebnissen übereinstimmt. Bei Verfestigung lassen sich wesentlich größere Sicherheiten nachweisen. Dieses Potential bedarf weiterer experimenteller Absicherung. Parallel dazu ist die Eisnpieltheorie auf fortschrittliche Verfestigungsansätze zu erweitern.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist ähnlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA entwickelten Zuverlässigkeitsanalysen sind nichlinear erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar. Auf die vorgesehenen Erweiterungen der Werkstoffmodellierung für nichtlineare Verfestigung und für Schädigung konnte hier nicht eingegangen werden. Es herrscht ein deutlicher Mangel an Experimenten zum Nachweis der Grenzen zwischen elastischem Einspielen und dem Versagen durch LCF oder durch Ratchetting.
Im Rahmen von Ermüdungsanalysen ist nachzuweisen, daß die thermisch bedingten fortschreitenden Deformationen begrenzt bleiben. Hierzu ist die Abgrenzung des Shakedown-Bereiches (Einspielen) vom Ratchetting-Bereich (fortschreitende Deformation) von Interesse. Im Rahmen eines EU-geförderten Forschungsvorhabens wurden Experimente mit einem 4-Stab-Modell durchgeführt. Das Experiment bestand aus einem wassergekühlten inneren Rohr und drei isolierten und beheizbaren äußeren Probestäben. Das System wurde durch alternierende Axialkräfte, denen alternierende Temperaturen an den äußeren Stäben überlagert wurden, belastet. Die Versuchsparameter wurden teilweise nach vorausgegangenen Einspielanalysen gewählt. Während der Versuchsdurchführung wurden Temperaturen und Dehnungen zeitabhängig gemessen. Begleitend und nachfolgend zur Versuchsdurchführung wurden die Belastungen und die daraus resultierenden Beanspruchungen nachvollzogen. Bei dieser inkrementellen elasto-plastischen Analyse mit dem Programm ANSYS wurden unterschiedliche Werkstoffmodelle angesetzt. Die Ergebnisse dieser Simulationsberechnung dienen dazu, die Shakedown-Analysen mittels FE-Methode zu verifizieren.
Limit and shakedown theorems are exact theories of classical plasticity for the direct computation of safety factors or of the load carrying capacity under constant and varying loads. Simple versions of limit and shakedown analysis are the basis of all design codes for pressure vessels and pipings. Using Finite Element Methods more realistic modeling can be used for a more rational design. The methods can be extended to yield optimum plastic design. In this paper we present a first implementation in FE of limit and shakedown analyses for perfectly plastic material. Limit and shakedown analyses are done of a pipe–junction and a interaction diagram is calculated. The results are in good correspondence with the analytic solution we give in the appendix.
Genaue Kenntnis der Spannungen und Verformungen in passiven Komponenten gewinnt man mit detailierten inelastischen FEM Analysen. Die lokale Beanspruchung läßt sich aber nicht direkt mit einer Beanspruchbarkeit im strukturmechanischen Sinne vergleichen. Konzentriert man sich auf die Frage nach der Tragfähigkeit, dann vereinfacht sich die Analyse. Im Rahmen der Plastizitätstheorie berechnen Traglast- und Einspielanalyse die tragbaren Lasten direkt und exakt. In diesem Beitrag wird eine Implementierung der Traglast- und Einspielsätze in ein allgemeines FEM Programm vorgestellt, mit der die Tragfähigkeit passiver Komponenten direkt berechnet wird. Die benutzten Konzepte werden in Bezug auf die übliche Strukturanalyse erläutert. Beispiele mit lokal hoher Beanspruchung verdeutlichen die Anwendung der FEM basierten Traglast- und Einspielanalysen. Die berechneten Interaktionsdiagramme geben einen guten Überblick über die möglichen Betriebsbereiche passiver Komponenten. Die Traglastanalyse bietet auch einen strukturmechanischen Zugang zur Kollapslast rißbehafteter Komponenten aus hochzähem Material.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. Die Autoren möchten der Europäischen Kommission an dieser Stelle für die Förderung ausdrücklich danken. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist änhlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA geplante Zuverlässigkeitsanalyse ist erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar.
Abstracts of the ACHEMA 2000 - International Meeting on Chemical Engineering, Environmental Protection and Biotechnology, May 22 - 27, 2000. Frankfurt am Main. Achema 2000 : special edition / Linde. [Ed.: Linde AG. Red.: Volker R. Leski]. - Wiesbaden : Linde AG, 2000. - 56 p. : Ill., . - pp: 79 - 81
A procedure for the evaluation of the failure probability of elastic-plastic thin shell structures is presented. The procedure involves a deterministic limit and shakedown analysis for each probabilistic iteration which is based on the kinematical approach and the use the exact Ilyushin yield surface. Based on a direct definition of the limit state function, the non-linear problems may be efficiently solved by using the First and Second Order Reliabiblity Methods (Form/SORM). This direct approach reduces considerably the necessary knowledge of uncertain technological input data, computing costs and the numerical error. In: Computational plasticity / ed. by Eugenio Onate. Dordrecht: Springer 2007. VII, 265 S. (Computational Methods in Applied Sciences ; 7) (COMPLAS IX. Part 1 . International Center for Numerical Methods in Engineering (CIMNE)). ISBN 978-1-402-06576-7 S. 186-189
Market data for the German telecom market shows that Deutsche Telekom as the former incumbent is constantly loosing shares on all arkets for voice telephony: the market for local calls, the market for long-distance calls and the market for international calls. At the same time prices decline steadily with the latest trend being that operators offer voice services free of charge, the costs of which are covered by a monthly subscription charge. Against this background the paper examines the state of policy and regulatory reform in the telecommunications sector in Germany almost 10 years after the liberalisation of the fixed telecommunications market. Thereby the focus is on the analysis of the competitive conditions that have been established on the German market for voice telephony services. If these retail markets are competitive, there might be a need to remove remaining regulatory provisions. In the new environment of converging markets the future challenge of regulating fixed telecom markets might be to ensure that access to the network and/or services of a potentially dominant provider in a relevant market will satisfy requirements for openness and non-discrimination.
Proceedings of the International Conference on Material Theory and Nonlinear Dynamics. MatDyn. Hanoi, Vietnam, Sept. 24-26, 2007, 8 p. In this paper, a method is introduced to determine the limit load of general shells using the finite element method. The method is based on an upper bound limit and shakedown analysis with elastic-perfectly plastic material model. A non-linear constrained optimisation problem is solved by using Newton’s method in conjunction with a penalty method and the Lagrangean dual method. Numerical investigation of a pipe bend subjected to bending moments proves the effectiveness of the algorithm.
O Perfil Reiss apresenta no resultado uma visão da estrutura dos motivos e impulsos de uma pessoa. O ponto de saída para a análise do resultado é o conhecimento de que os motivos vitais (= valores e metas de sobrevivência) formam a moldura, na qual as competências e capacidades que uma pessoa possui possam se desabrochar de forma ideal. A partir desse princípio, não existe no Perfil Reiss nenhum resultado que se possa classificar como correto ou falso, nem como bom ou mau. Uma comparação entre o resultado do Perfil Reiss e o conteúdo de uma atividade apresentada ou ambicionada dá informação sobre até que ponto a capacidade de rendimento de uma pessoa nessa posição pode vir ou virá a se desenvolver por um longo tempo.
Concept, scientific research and managerial applications of Provocative Coaching, according to the „Provocative Therapy“ of Prof. Dr. Frank Farrelly (University of Wisconsin, U.S.A) in terms of an application of the Provocative Communication Style in specific situations of practical leadership, especially in the role of a coach for their subordinates.
Hands-on-training in high technology areas is usually limited due to the high cost for lab infrastructure and equipment. One specific example is the field of MEMS, where investment and upkeep of clean rooms with microtechnology equipment is either financed by production or R&D projects greatly reducing the availability for education purposes. For efficient hands-on-courses a MEMS training foundry, currently used jointly by six higher education institutions, was established at FH Kaiserslautern. In a typical one week course, students manufacture a micromachined pressure sensor including all lithography, thin film and packaging steps. This compact and yet complete program is only possible because participants learn to use the different complex machines in advance via a Virtual Training Lab (VTL). In this paper we present the concept of the MEMS training foundry and the VTL preparation together with results from a scientific evaluation of the VTL over the last three years.
The nonlinear scalar constitutive equations of gases lead to a change in sound speed from point to point as would be found in linear inhomogeneous (and time dependent) media. The nonlinear tensor constitutive equations of solids introduce the additional local effect of solution dependent anisotropy. The speed of a wave passing through a point changes with propagation direction and its rays are inclined to the front. It is an open question whether the widely used operator splitting techniques achieve a dimensional splitting with physically reasonable results for these multi-dimensional problems. May be this is the main reason why the theoretical and numerical investigations of multi-dimensional wave propagation in nonlinear solids are so far behind gas dynamics. We hope to promote the subject a little by a discussion of some fundamental aspects of the solution of the equations of nonlinear elastodynamics. We use methods of characteristics because they only integrate mathematically exact equations which have a direct physical interpretation.
A key feature of future broadband markets will be diversity of access technologies, meaning that numerous technologies will be exploited for broadband communication. Various factors will affect the success of these future broadband markets, the regulatory policy being one amongst others. So far, a coherent regulatory approach does not exist as to broadband markets. First results of policies so far suggest that less sector-specific regulation is likely to occur. Instead, regulators must ensure that access to networks and services of potentially dominant providers in a relevant broadband market will satisfy requirements for openness and non-discrimination. In this environment the future challenge of regulationg broadband markets will be to set the right incentives for investment into new infrastructures. This paper examines whether there is a need for the regulation of future broadband access markets an if yes, what is the appropriate regulatory tool to do so. Thereby the focus is on the analysis of European broadband markets and the regulatory approaches applied. The first section provides a description of the characteristics of future broadband markets. The second section discusses possible bottlenecks on broadband markets an their regulatory implications. The third section will examine regulatory issues concerning access to broadband networks in more detail. This will be done by comparing the regulatory approaches of European countries and the results in terms of bradband penetration. The final section will give key recommendations for a regulatory strategy on brandband access markets.
In: Technical feasibility and reliability of passive safety systems for nuclear power plants. Proceedings of an Advisory Group Meeting held in Jülich, 21-24 November 1994. - Vienna , 1996. - Seite: 43 - 55 IAEA-TECDOC-920 Abstract: It is shown that the difficulty for probabilistic fracture mechanics (PFM) is the general problem of the high reliability of a small population. There is no way around the problem as yet. Therefore what PFM can contribute to the reliability of steel pressure boundaries is demonstrated with the example of a typical reactor pressure vessel and critically discussed. Although no method is distinguishable that could give exact failure probabilities, PFM has several additional chances. Upper limits for failure probability may be obtained together with trends for design and operating conditions. Further, PFM can identify the most sensitive parameters, improved control of which would increase reliability. Thus PFM should play a vital role in the analysis of steel pressure boundaries despite all shortcomings.
In: Alfha.net / Sektion Bauingenieurwesen: 1. [Erster] Erfahrungsaustausch : Absolventen des Fachbereichs Bauingenieurwesens berichten. 13. Oktober 2006. S. 19-20. Zusammenfassung des Vortrags: Prozessanalyse und Revision beim Umbau des Flughafens Hamburg, Beratung von Bauunternehmen, Sachverständigentätigkeit
In: Alfha.net / Sektion Bauingenieurwesen: 1. [Erster] Erfahrungsaustausch : Absolventen des Fachbereichs Bauingenieurwesens berichten. 13. Oktober 2006. S. 16-17 Der Umbau des Aachener Buschtunnels im Rahmen des europäischen Hochgeschwindigkeitsschienennetzes wird im sogenannten "Neuen Österreichischen Tunnelbauverfahren (NOeT)", also ein Ausbau in Kalotte, Strosse und Sohle durchgeführt.
"Mit dem "1. Erfahrungsaustausch" im Fachbereich Bauingenieurwesen berichten Absolventen des Fachbereichs aus der Praxis. Mit diesem Treffen wird die wichtige Verbindung zwischen Hochschule, ihren Absolventen und der Berufspraxis zum besonderen Anliegen gemacht und besonders gestärkt." Zitat Prof. Dr.- Ing. Hans Boegershausen, Dekan im Grußwort. Referenten und Themen: Wellmann, Judith: Perspektiven eines Bauingenieurs im konstruktiven Ingenieurbau Dirk Gobbele, Dirk: Planung der Umbaumaßnahme Hauptbahnhof Aachen Kretschmann, Lars: Planung und Bauleitung Buschtunnel Aachen Becker, Astrid: Anlagenmanagement und Aufgaben der DB Netz AG, Bauherrenvertretung und Wirtschaftlichkeit Plenz, Michael: Baurevision und Unternehmensberatung, Tätigkeit als öffentlich bestellter und vereidigter Sachverständiger Klöcker, Alexander: Das Leitungsbauunternehmen – Unternehmerische Strategie als Zukunftssicherung Türk, Roman: Sanierung von Hausanschlüssen Bornebusch, Michael: Hydraulische und Hydrologische Modellsimulationen als Planungswerkzeug für Hochwasser-Schutz-Maßnahmen Himmerich, Jörg : Pipeline Integrity Management System – Probabilistische Bewertung von Bauwerken am Beispiel von Hochdruckleitungen.
Table of contents 1. Introduction 2. Multi-level Technology Transfer Infrastructure 2.1 Level 1: University Education – Encourage the Idea of becoming an Entrepreneur 2.2 Level 2: Post Graduate Education – Improve your skills and focus it on a product family. 2.3 Level 3: Birth of a Company – Focus your skills on a product and a market segment. 2.4 Level 4: Ready to stand alone – Set up your own business 2.5 Level 5: Grow to be Strong – Develop your business 2.6 Level 6: Competitive and independent – Stay innovative. 3. Samples 3.1 Sample 1: Laser Processing and Consulting Centre, LBBZ 3.2 Sample 2: Prototyping Centre, CP 4. Funding - Waste money or even lost Money? 5. Conclusion
One of the most important parameters in a burning chamber - in power stations, in waste to energy plants - is the temperature. This temperature is in the range of 700-1500 °C - one of the most advanced measuring methods being the acoustic pyrometry with the possibility of producing temperature mapping in one level of the burning chamber - comparable to computer tomography. The results of these measurements discussed in the presentation can be used - to fulfil the legal requirements in the FRG or in the EU - to equalise the temperature in one level of the burning chamber to optimise the steam production (better efficiency of the plant) and to minimise the production of temperature controlled flue gas components (NO, CO a. o.) - to control the SNCR-process if used.
The Ministry of Science and Research in North Rhine-Westphalia created eight platforms of excellence, one in the research area „Energy and Environment“ in 2002 at ACUAS. This platform concentrates the research and development of 13 professors in Jülich and Aachen and of two scientific institutes with different topics: – NOWUM-Energy with emphasis on efficient and economic energy conversion – The Solar Institute Jülich – SIJ – being the largest research institute in the field of renewables at a University of Applied Sciences in Germany With this platform each possible energy conversion – nuclear, fossil, renewable- can be dealt with to help solving the two most important problems of mankind, energy and potable water. At the CSE are presented the historical development, some research results and the combined master studies in „Energy Systems“ and „Nuclear Applications“
1) In Karosseriestrukturen steht der richtige Werkstoffeinsatz stärker den je im Spannungsfeld von Leichtbau, Kosten (Stückzahlen) und Leistungsanforderung 2) In „klassischen“ Strukturen von Modulträgern und Klappen hat sich die Materialmischbauweise verstärkt in den letzten Jahren durchgesetzt 3) Unter Aspekten des konzeptionellen Leichtbaus erscheint der verstärkte Einsatz von Leichtbauwerkstoffen im Vorderwagen sowie in der Dachstruktur zielführend 4) Offene Strukturprofile in Materialmischbauweise liefern für eine Vielzahl von Anwendungen ein interessantes und bis dato kaum genutztes Potential 5) Neue Entwicklungen bei den Fügetechnologien (i.b. kontinuierliche Fügeverbindungen und kombinierte Verfahren) unterstützen den wirtschaftlichen Karosserieleichtbau 6) Werkstoffinnovationen sowie neuartige Fertigungsverfahren machen den Konstruktionswerkstoff „Stahl“ auch in der Zukunft im Karosseriebau weiterhin sehr attraktiv
1) Module werden die Fahrzeugplattform und den –aufbau in Zukunft weiterhin und in zunehmendem Maße bestimmen. 2) Neue Module und Modulschnittstellen am Fahrzeug werden überdacht und können in der Zukunft erwartet werden. 3) Die Wertschöpfung und der Entwicklungsumfang wird sich vom OEM zum Modullieferanten verlagern. 4) Modulvergaben werden in der Zukunft noch stärker auf Innovation und Kostenreduktion beruhen. 5) Modularisierung des Fahrzeuges heißt ein Aufbrechen der Fahrzeugkarosserie und wird daher von der Beherrschung struktureller Aufgaben sowie der Lösung der (sichtbaren) Modulübergänge bestimmt sein. 6) Neben den Systemintegratoren und den Komponentenspezialisten besetzen die Modullieferanten die erste Lieferantenriege. 7) Der Modullieferant wird neben höchster Fertigungsexpertise ein hohes Maß an (Teil-)fahrzeug-Know-How und Produktentwickler-mentalität bereitstellen.
This paper reports a first microbial biosensor for rapid and cost-effective determination of organophosphorus pesticides fenitrothion and EPN. The biosensor consisted of recombinant PNP-degrading/oxidizing bacteria Pseudomonas putida JS444 anchoring and displaying organophosphorus hydrolase (OPH) on its cell surface as biological sensing element and a dissolved oxygen electrode as the transducer. Surfaceexpressed OPH catalyzed the hydrolysis of fenitrothion and EPN to release 3-methyl-4-nitrophenol and p-nitrophenol, respectively, which were oxidized by the enzymatic machinery of Pseudomonas putida JS444 to carbon dioxide while consuming oxygen, which was measured and correlated to the concentration of organophosphates. Under the optimum operating conditions, the biosensor was able to measure as low as 277 ppb of fenitrothion and 1.6 ppm of EPN without interference from phenolic compounds and other commonly used pesticides such as carbamate pesticides, triazine herbicides and organophosphate pesticides without nitrophenyl substituent. The applicability of the biosensor to lake water was also demonstrated.
This paper presents a two-dimensional-in-space mathematical model of biosensors based on an array of enzyme microreactors immobilised on a single electrode. The modeling system acts under amperometric conditions. The microreactors were modeled by particles and by strips. The model is based on the diffusion equations containing a nonlinear term related to the Michaelis-Menten kinetics of the enzymatic reaction. The model involves three regions: an array of enzyme microreactors where enzyme reaction as well as mass transport by diffusion takes place, a diffusion limiting region where only the diffusion takes place, and a convective region, where the analyte concentration is maintained constant. Using computer simulation, the influence of the geometry of the microreactors and of the diffusion region on the biosensor response was investigated. The digital simulation was carried out using the finite difference technique.
The applicability of differential pulse voltammetry (DPV) and adsorptive stripping voltammetry (AdSV) at a non-toxic meniscus-modified silver solid amalgam electrode (m-AgSAE) for the determination of trace amounts of genotoxic substances was demonstrated on the determination of micromolar and submicromolar concentrations of 3-nitrofluoranthene using methanol - 0.01 mol L-1 NaOH (9:1) mixture as a base electrolyte and of Ostazine Orange using 0.01 mol L-1 NaOH as a base electrolyte.
Novel organic membrane-based thin-film microsensors for the determination of heavy metal cations
(2006)
A first step towards the fabrication and electrochemical evaluation of thin-film microsensors based on organic PVC membranes for the determination of Hg(II), Cd(II), Pb(II) and Cu(II) ions in solutions has been realised. The membrane-coating mixture used in the preparation of this new type of microsensors is incorporating PVC as supporting matrix, o-nitrophenyloctylether (o-NPOE) as solvent mediator and a recently synthesized Hg[dimethylglyoxime(phene)]2+ and Bis-(4-hydroxyacetophenone)-ethylenediamine as electroactive materials for Hg(II) and Cd(II), respectively. A set of three commercialised ionophores for Cd(II), Pb(II) and Cu(II) has been also used for comparison. Thin-film microsensors based on these membranes showed a Nernstian response of slope (26-30 mV/dec.) for the respective tested cations. The potentiometric response characteristics (linear range, pH range, detection limit and response time) are comparable with those obtained by conventional membranes as well as coated wire electrodes prepared from the same membrane. The realisation of the new organic membrane-based thin-film microsensors overcomes the problem of an insufficient selectivity of solid-state-based thinfilm sensors.
In this paper, methods of sample preparation for potentiometric measurement of phenylalanine are presented. Basing on the spectrophotometric measurements of phenylalanine, the concentrations of reagents of the enzymatic reaction (10 mM L-Phe, 0,4 mM NAD+, 2U L-PheDH) were determined. Then, the absorption spectrum of the reaction product, NADH, was monitored (maximum peak at 340 nm). The results obtained by the spectrophotometric method were compared with the results obtained by the colourimetry, using pH indicators. The above-mentioned two methods will be used as references for potentiometric measurements of phenylalanine concentration.
Hydrophobic magnetic nanoparticles (NPs) consisting of undecanoate-capped magnetite (Fe3O4, average diameter ca. 5 nm) are used to control quantized electron transfer to surface-confined redox units and metal NPs. A two-phase system consisting of an aqueous electrolyte solution and a toluene phase that includes the suspended undecanoatecapped magnetic NPs is used to control the interfacial properties of the electrode surface. The attracted magnetic NPs form a hydrophobic layer on the electrode surface resulting in the change of the mechanisms of the surface-confined electrochemical processes. A quinone-monolayer modified Au electrode demonstrates an aqueous-type of the electrochemical process (2e-+2H+ redox mechanism) for the quinone units in the absence of the hydrophobic magnetic NPs, while the attraction of the magnetic NPs to the surface results in the stepwise single-electron transfer mechanism characteristic of a dry nonaqueous medium. Also, the attraction of the hydrophobic magnetic NPs to the Au electrode surface modified with Au NPs (ca. 1.4 nm) yields a microenvironment with a low dielectric constant that results in the single-electron quantum charging of the Au NPs.
Micromachined thermal heater platforms offer low electrical power consumption and high modulation speed, i.e. properties which are advantageous for realizing nondispersive infrared (NDIR) gas- and liquid monitoring systems. In this paper, we report on investigations on silicon-on-insulator (SOI) based infrared (IR) emitter devices heated by employing different kinds of metallic and semiconductor heater materials. Our results clearly reveal the superior high-temperature performance of semiconductor over metallic heater materials. Long-term stable emitter operation in the vicinity of 1300 K could be attained using heavily antimony-doped tin dioxide (SnO2:Sb) heater elements.
Various planar technologies are employed for developing solid-state sensors having low cost, small size and high reproducibility; thin- and thick-film technologies are most suitable for such productions. Screen-printing is especially suitable due to its simplicity, low-cost, high reproducibility and efficiency in large-scale production. This technology enables the deposition of a thick layer and allows precise pattern control. Moreover, this is a highly economic technology, saving large amounts of the used inks. In the course of repetitions of the film-deposition procedure there is no waste of material due to additivity of this thick-film technology. Finally, the thick films can be easily and quickly deposited on inexpensive substrates. In this contribution, thick-film ion-selective electrodes based on ionophores as well as crystalline ion-selective materials dedicated for potentiometric measurements are demonstrated. Analytical parameters of these sensors are comparable with those reported for conventional potentiometric electrodes. All mentioned thick-film strip electrodes have been totally fabricated in only one, fully automated thickfilm technology, without any additional manual, chemical or electrochemical steps. In all cases simple, inexpensive, commercially available materials, i.e. flexible, plastic substrates and easily cured polymer-based pastes were used.
Multi-interface level sensors and new development in monitoring and control of oil separators
(2006)
In the oil industry, huge saving may be made if suitable multi-interface level measurement systems are employed for effectively monitoring crude oil separators and efficient control of their operation. A number of techniques, e.g. externally mounted displacers, differential pressure transmitters and capacitance rod devices, have been developed to measure the separation process with gas, oil, water and other components. Because of the unavailability of suitable multi-interface level measurement systems, oil separators are currently operated by the trial-and-error approach. In this paper some conventional techniques, which have been used for level measurement in industry, and new development are discussed.
In this paper, methods of surface modification of different supports, i.e. glass and polymeric beads for enzyme immobilisation are described. The developed method of enzyme immobilisation is based on Schiff’s base formation between the amino groups on the enzyme surface and the aldehyde groups on the chemically modified surface of the supports. The surface of silicon modified by APTS and GOPS with immobilised enzyme was characterised by atomic force microscopy (AFM), time-of-flight secondary ion mass spectroscopy (ToF-SIMS) and infrared spectroscopy (FTIR). The supports with immobilised enzyme (urease) were also tested in combination with microreactors fabricated in silicon and Perspex, operating in a flow-through system. For microreactors filled with urease immobilised on glass beads (Sigma) and on polymeric beads (PAN), a very high and stable signal (pH change) was obtained. The developed method of urease immobilisation can be stated to be very effective.
A new and simple method for nanostructuring using conventional photolithography and layer expansion or pattern-size reduction technique is presented, which can further be applied for the fabrication of different nanostructures and nano-devices. The method is based on the conversion of a photolithographically patterned metal layer to a metal-oxide mask with improved pattern-size resolution using thermal oxidation. With this technique, the pattern size can be scaled down to several nanometer dimensions. The proposed method is experimentally demonstrated by preparing nanostructures with different configurations and layouts, like circles, rectangles, trapezoids, “fluidic-channel”-, “cantilever”- and meander-type structures.
GaAs-based Gunn diodes with graded AlGaAs hot electron injector heterostructures have been developed under the special needs in automotive applications. The fabrication of the Gunn diode chips was based on total substrate removal and processing of integrated Au heat sinks. Especially, the thermal and RF behavior of the diodes have been analyzed by DC, impedance and S-parameter measurements. The electrical investigations have revealed the functionality of the hot electron injector. An optimized layer structure could fulfill the requirements in adaptive cruise control (ACC) systems at 77 GHz with typical output power between 50 and 90 mW.
A concept for a sensitive micro total analysis system for high throughput fluorescence imaging
(2006)
This paper discusses possible methods for on-chip fluorescent imaging for integrated bio-sensors. The integration of optical and electro-optical accessories, according to suggested methods, can improve the performance of fluorescence imaging. It can boost the signal to background ratio by a few orders of magnitudes in comparison to conventional discrete setups. The methods that are present in this paper are oriented towards building reproducible arrays for high-throughput micro total analysis systems (µTAS). The first method relates to side illumination of the fluorescent material placed into microcompartments of the lab-on-chip. Its significance is in high utilization of excitation energy for low concentration of fluorescent material. The utilization of a transparent µLED chip, for the second method, allows the placement of the excitation light sources on the same optical axis with emission detector, such that the excitation and emission rays are directed controversly. The third method presents a spatial filtering of the excitation background.
An array of 50 MHz quartz microbalances (QMBs) coated with a dendronized polymer was used to detect small amounts of volatile organic compounds (VOCs) in the gas phase. The results were compared to those obtained with the commonly used 10 MHz QMBs. The 50 MHz QMBs proved to be a powerful tool for the detection of VOCs in the gas phase; therefore, they represent a promising alternative to the much more delicate surface acoustic wave devices (SAWs).
Quartz crystal nanobalance (QCN) sensors are considered as powerful masssensitive sensors to determine materials in the sub-nanogram level. In this study, a single piezoelectric quartz crystal nanobalance modified with polystyrene was employed to detect benzene, toluene, ethylbenzene and xylene (BTEX compounds). The frequency shift of the QCN sensor was found to be linear against the BTEX compound concentrations in the range about 1-45 mg l-1. The correlation coefficients for benzene, toluene, ethylbenzene, and xylene were 0.991, 0.9977, 0.9946 and 0.9971, respectively. The principal component analysis was also utilized to process the frequency response data of the single piezoelectric crystal at different times, considering to the different adsorption-desorption dynamics of BTEX compounds. Using principal component analysis, it was found that over 90% of the data variance could still be explained by use of two principal components (PC1 and PC2). Subsequently, the successful identification of benzene and toluene was possible through the principal component analysis of the transient responses of the polystyrene modified QCN sensor. The results showed that the polystyrene-modified QCN had favorable identification and quantification performances for the BTEX compounds.
We report on the synthesis and CO gas-sensing properties of mesoporous tin(IV) oxides (SnO2). For the synthesis cetyltrimethylammonium bromide (CTABr) was used as a structure-directing agent; the resulting SnO2 powders were applied as films to commercially available sensor substrates by drop coating. Nitrogen physisorption shows specific surface areas up to 160 m2·g-1 and mean pore diameters of about 4 nm, as verified by TEM. The film conductance was measured in dependence on the CO concentration in humid synthetic air at a constant temperature of 300 °C. The sensors show a high sensitivity at low CO concentrations and turn out to be largely insensitive towards changes in the relative humidity. We compare the materials with commercially available SnO2-based sensors.
An H2O2 sensor for the application in industrial sterilisation processes has been developed. Therefore, automated sterilisation equipment at laboratory scale has been constructed using parts from industrial sterilisation facilities. In addition, a software tool has been developed for the control of the sterilisation equipment at laboratory scale. First measurements with the developed sensor set-up as part of the sterilisation equipment have been performed and the sensor has been physically characterised by optical microscopy and SEM.
The workflow of a high throughput screening setup for the rapid identification of new and improved sensor materials is presented. The polyol method was applied to prepare nanoparticular metal oxides as base materials, which were functionalised by surface doping. Using multi-electrode substrates and high throughput impedance spectroscopy (HT-IS) a wide range of materials could be screened in a short time. Applying HT-IS in search of new selective gas sensing materials a NO2-tolerant NO sensing material with reduced sensitivities towards other test gases was identified based on iridium doped zinc oxide. Analogous behaviour was observed for iridium doped indium oxide.
A solid-state amperometric hydrogen sensor based on a protonated Nafion membrane and catalytic active electrode operating at room temperature was fabricated and tested. Ionic conducting polymer-metal electrode interfaces were prepared chemically by using the impregnation-reduction method. The polymer membrane was impregnated with tetra-ammine platinum chloride hydrate and the metal ions were subsequently reduced by using either sodium tetrahydroborate or potassium tetrahydroborate. The hydrogen sensing characteristics with air as reference gas is reported. The sensors were capable of detecting hydrogen concentrations from 10 ppm to 10% in nitrogen. The response time was in the range of 10-30 s and a stable linear current output was observed. The thin Pt films were characterized by XRD, Infrared Spectroscopy, Optical Microscopy, Atomic Force Microscopy, Scanning Electron Microscopy and EDAX.
A multi-sensor system is a chemical sensor system which quantitatively and qualitatively records gases with a combination of cross-sensitive gas sensor arrays and pattern recognition software. This paper addresses the issue of data analysis for identification of gases in a gas sensor array. We introduce a software tool for gas sensor array configuration and simulation. It concerns thereby about a modular software package for the acquisition of data of different sensors. A signal evaluation algorithm referred to as matrix method was used specifically for the software tool. This matrix method computes the gas concentrations from the signals of a sensor array. The software tool was used for the simulation of an array of five sensors to determine gas concentration of CH4, NH3, H2, CO and C2H5OH. The results of the present simulated sensor array indicate that the software tool is capable of the following: (a) identify a gas independently of its concentration; (b) estimate the concentration of the gas, even if the system was not previously exposed to this concentration; (c) tell when a gas concentration exceeds a certain value. A gas sensor data base was build for the configuration of the software. With the data base one can create, generate and manage scenarios and source files for the simulation. With the gas sensor data base and the simulation software an on-line Web-based version was developed, with which the user can configure and simulate sensor arrays on-line.
Study of swift heavy ion modified conduction polymer composites for application as gas sensor
(2006)
A polyaniline-based conducting composite was prepared by oxidative polymerisation of aniline in a polyvinylchloride (PVC) matrix. The coherent free standing thin films of the composite were prepared by a solution casting method. The polyvinyl chloride-polyaniline composites exposed to 120 MeV ions of silicon with total ion fluence ranging from 1011 to 1013 ions/cm2, were observed to be more sensitive towards ammonia gas than the unirradiated composite. The response time of the irradiated composites was observed to be comparably shorter. We report for the first time the application of swift heavy ion modified insulating polymer conducting polymer (IPCP) composites for sensing of ammonia gas.
Functional testing and characterisation of ISFETs on wafer level by means of a micro-droplet cell
(2006)
A wafer-level functionality testing and characterisation system for ISFETs (ionsensitive field-effect transistor) is realised by means of integration of a specifically designed capillary electrochemical micro-droplet cell into a commercial wafer prober-station. The developed system allows the identification and selection of “good” ISFETs at the earliest stage and to avoid expensive bonding, encapsulation and packaging processes for nonfunctioning ISFETs and thus, to decrease costs, which are wasted for bad dies. The developed system is also feasible for wafer-level characterisation of ISFETs in terms of sensitivity, hysteresis and response time. Additionally, the system might be also utilised for wafer-level testing of further electrochemical sensors.
Das Technologiepraktikum „Virtuelle Sensor-Fertigung“ ist ein Beispiel für die medientechnische Aufbereitung von Lern- und Lehrmaterial unter didaktischen Gesichtspunkten. Studierende lernen einen Fertigungsprozess mit Hilfe von virtuellen Maschinen kennen, bevor sie die reale Prozesskette im Laborpraktikum im Reinraum durchführen.
Eine neue Generation von Praktika an Hochschulen wächst heran. Moderne Wege beim Verstehen und Erlernen naturwissenschaftlicher Zusammenhänge sowie industrieller Fertigungsprozesse sind gefordert. Das Technologiepraktikum „Virtuelle Sensor- Fertigung“, entwickelt im Verbundprojekt INGMEDIA an den Fachhochschulen Aachen und Zweibrücken, trägt als neuartiges Lern- und Lehrmodul dieser Forderung Rechnung. Die Studierenden lernen einen vollständigen Fertigungsprozess mit Hilfe von virtuellen, in LabVIEW programmierten Maschinen kennen, bevor sie die reale Prozesskette im Reinraum durchführen.
Close interrelations between sound and image are not a mere phenomenon of today’s multimedia technology. The idea of the synthesis of different media lies at the core of the concept of the Gesamtkunstwerk in the second half of the 19th century and it can also be traced back to the synaesthesia debate at the beginning of the 20th century [...].
This paper presents the direct route to Design by Analysis (DBA) of the new European pressure vessel standard in the language of limit and shakedown analysis (LISA). This approach leads to an optimization problem. Its solution with Finite Element Analysis is demonstrated for some examples from the DBA-Manual. One observation from the examples is, that the optimisation approach gives reliable and close lower bound solutions leading to simple and optimised design decision.
Zur Bedeutung der Workload
(2005)
Safety and reliability of structures may be assessed indirectly by stress distributions. Limit and shakedown theorems are simplified but exact methods of plasticity that provide safety factors directly in the loading space. These theorems may be used for a direct definition of the limit state function for failure by plastic collapse or by inadaptation. In a FEM formulation the limit state function is obtained from a nonlinear optimization problem. This direct approach reduces considerably the necessary knowledge of uncertain technological input data, the computing time, and the numerical error. Moreover, the direct way leads to highly effective and precise reliability analyses. The theorems are implemented into a general purpose FEM program in a way capable of large-scale analysis.
Structural design analyses are conducted with the aim of verifying the exclusion of ratcheting. To this end it is important to make a clear distinction between the shakedown range and the ratcheting range. In cyclic plasticity more sophisticated hardening models have been suggested in order to model the strain evolution observed in ratcheting experiments. The hardening models used in shakedown analysis are comparatively simple. It is shown that shakedown analysis can make quite stable predictions of admissible load ranges despite the simplicity of the underlying hardening models. A linear and a nonlinear kinematic hardening model of two-surface plasticity are compared in material shakedown analysis. Both give identical or similar shakedown ranges. Structural shakedown analyses show that the loading may have a more pronounced effect than the hardening model.
Ausgangslage, Funktionsprinzip des virtuellen Kraftwerkes, Energiemanagementsysteme (EMS), Einsatzgebiete, Anlagesysteme eines VKW's, Einsatzbereich der verschiedenen dezentralen Energieanlagen, Vorteile des virtuellen Kraftwerkes, Auswirkungen auf das elektrische Netz, Wirtschaftliche Aspekte, Beispielprojekte
Funktionsprinzip Emissionsrechtehandel, Betroffene Anlagen und Branchen, Erstverteilung der Emissionsrechte, Bereits erbrachte Emissionsreduktionen (early actions), Ausstieg von betroffenen Unternehmen (opt-out), Teilnahme von nicht betroffenen Unternehmen, Einsatz von Biobrennstoffen, Erfassung und Dokumentation der Emissionen
Physische Prototypen, also Anschauungs- und Funktionsmodelle nach den generativen oder Rapid Prototyping (RP) Verfahren haben sich in diesem Zusammenhang vor allem als Hilfsmittel zur effektiven Kommunikation und zur Evaluierung von Produkteigenschaften einen festen Platz in der Produktentstehung erworben. Die positiven Effekte der etablierten RP Verfahren sind unumstritten. Einfachere, schnellere und wirtschaftlichere Maschinen (Prototyper, Fabrikator), vor allem auch für die Büroumgebung, geben neue Impulse im Sinne der Optimierung der heutigen Verfahren. Eine neue Dimension verspricht die Option „Farbe“ der bisher fast ausschließlich monochromen Modelle. Ist Farbe nur „nice to have“ oder welchen Effekt haben farbige Modelle als Werkzeug von Konstrukteuren und Produktenwicklern? Welche Perspektiven bietet „Farbe“ darüber hinaus?
Alle Unternehmen sind vielfältigen Risiken ausgesetzt, die Finanz- und Betriebsbereiche einschließlich Dienstleistungen betreffen können. Die Firmen müssen üblicherweise Risiken eingehen, um im Wettbewerb bestehen zu können. Entscheidend ist, dass man sich über die Risiken bewusst ist, diese einschätzen und kontrollieren kann. Falsche Einschätzungen, Versäumnisse und Fehlentscheidungen können empfindliche finanzielle Schäden bis hin zum Totalverlust nach sich ziehen. Ein effektives Risikomanagement ist heute als wichtiger Sicherheitsfaktor anzusehen und sollte zur strategischen Unternehmensführung gehören. Ein vorausschauendes Risikomanagement beinhaltet, Risiken für das Unternehmen zu kalkulieren. Es liefert Entscheidungsgrundlagen, um diese Risiken zu begrenzen und es macht transparent, welche Risiken sinnvollerweise über Versicherungen abgedeckt werden sollten. Beim Versicherungsmanagement ist jedoch zu bedenken, dass zur Erreichung bestimmter Ziele Versicherungen nicht geeignet sind (z.B. Erhaltung der Lieferfähigkeit). Eintrittswahrscheinlichkeiten bestimmter Risiken lassen sich durch Versicherungen nicht verändern. Bei Unternehmen, die mit umfangreichen elektronischen Einrichtungen produzieren oder Dienstleistungen erbringen (und das sind heutzutage wohl die meisten), muss auch das Risiko durch Blitzeinwirkungen besondere Berücksichtigung finden. Dabei ist zu beachten, dass der Schaden aufgrund der Nicht-Verfügbarkeit der elektronischen Einrichtungen und damit der Produktion bzw. der Dienstleistung und ggf. der Verlust von Daten den Hardware-Schaden an der betroffenen Anlage oft bei weitem übersteigt. Im Blitzschutz gewinnt innovatives Denken in Schadensrisiken langsam an Bedeutung. Risikoanalysen haben die Objektivierung und Quantifizierung der Gefährdung von baulichen Anlagen und ihrer Inhalte durch direkte und indirekte Blitzeinschläge zum Ziel. Seinen Niederschlag hat dieses neue Denken in der neuen deutschen Norm DIN V 0185-2 VDE V 0185 Teil 2 gefunden. Die hier vorgegebene Risikoanalyse gewährleistet, dass ein für alle Beteiligten nachvollziehbares Blitzschutz-Konzept erstellt werden kann, das technisch und wirtschaftlich optimiert ist, d.h. bei möglichst geringem Aufwand den notwendigen Schutz gewährleisten kann. Die sich aus der Risikoanalyse ergebenden Schutzmaßnahmen sind dann in den weiteren Normenteilen der neuen Reihe VDE V 0185 detailliert beschrieben.