Refine
Year of publication
Institute
- Fachbereich Medizintechnik und Technomathematik (91)
- IfB - Institut für Bioengineering (38)
- Fachbereich Bauingenieurwesen (36)
- Fachbereich Energietechnik (33)
- Fachbereich Maschinenbau und Mechatronik (19)
- Fachbereich Wirtschaftswissenschaften (18)
- Fachbereich Elektrotechnik und Informationstechnik (16)
- INB - Institut für Nano- und Biotechnologien (11)
- Fachbereich Luft- und Raumfahrttechnik (10)
- FH Aachen (6)
Has Fulltext
- yes (229) (remove)
Language
- English (132)
- German (95)
- Multiple languages (1)
- Spanish (1)
Document Type
- Conference Proceeding (229) (remove)
Keywords
- Biosensor (25)
- Blitzschutz (15)
- CAD (11)
- Finite-Elemente-Methode (11)
- civil engineering (11)
- Bauingenieurwesen (10)
- Lightning protection (9)
- Einspielen <Werkstoff> (6)
- Telekommunikationsmarkt (6)
- shakedown analysis (6)
The Ministry of Science and Research in North Rhine-Westphalia created eight platforms of excellence, one in the research area „Energy and Environment“ in 2002 at ACUAS. This platform concentrates the research and development of 13 professors in Jülich and Aachen and of two scientific institutes with different topics: – NOWUM-Energy with emphasis on efficient and economic energy conversion – The Solar Institute Jülich – SIJ – being the largest research institute in the field of renewables at a University of Applied Sciences in Germany With this platform each possible energy conversion – nuclear, fossil, renewable- can be dealt with to help solving the two most important problems of mankind, energy and potable water. At the CSE are presented the historical development, some research results and the combined master studies in „Energy Systems“ and „Nuclear Applications“
In: Computer Aided Architectural Design Futures 2005 2005, Part 4, 207-216, DOI: http://dx.doi.org/10.1007/1-4020-3698-1_19 The conceptual design at the beginning of the building construction process is essential for the success of a building project. Even if some CAD tools allow elaborating conceptual sketches, they rather focus on the shape of the building elements and not on their functionality. We introduce semantic roomobjects and roomlinks, by way of example to the CAD tool ArchiCAD. These extensions provide a basis for specifying the organisation and functionality of a building and free architects being forced to directly produce detailed constructive sketches. Furthermore, we introduce consistency analyses of the conceptual sketch, based on an ontology containing conceptual relevant knowledge, specific to one class of buildings.
Proc. of the 2005 ASCE Intl. Conf. on Computing in Civil Engineering (ICCC 2005) eds. L. Soibelman und F. Pena-Mora, Seite 1-14, ASCE (CD-ROM), Cancun, Mexico, 2005 Current CAD tools are not able to support the fundamental conceptual design phase, and none of them provides consistency analyses of sketches produced by architects. To give architects a greater support at the conceptual design phase, we develop a CAD tool for conceptual design and a knowledge specification tool allowing the definition of conceptually relevant knowledge. The knowledge is specific to one class of buildings and can be reused. Based on a dynamic knowledge model, different types of design rules formalize the knowledge in a graph-based realization. An expressive visual language provides a user-friendly, human readable representation. Finally, consistency analyses enable conceptual designs to be checked against this defined knowledge. In this paper we concentrate on the knowledge specification part of our project.
In: Forum Bauinformatik 2005 : junge Wissenschaftler forschen / [Lehrstuhl Bauinformatik, Brandenburgische Technische Universität Cottbus. Frank Schley ... (Hrsg.)]. - Cottbus : Techn. Universität 2005. S. 1-10 ISBN 3-934934-11-0
Mittels eines operationalen Ansatzes zur Semantikdefinition wird am Bei-spiel des konzeptuellen Gebäudeentwurfs ein Regelsystem formalisiert. Dazu werdenzwei Teile, zum einen das Regelwissen, zum anderen ein konzeptueller Entwurfsplan zunächst informell eingeführt und dann formal beschrieben. Darauf aufbauend wird die Grundlage für eine Konsistenzprüfung des konzeptuellen Entwurfs gegen das Regel-wissen formal angeben
A key feature of future broadband markets will be diversity of access technologies, meaning that numerous technologies will be exploited for broadband communication. Various factors will affect the success of these future broadband markets, the regulatory policy being one amongst others. So far, a coherent regulatory approach does not exist as to broadband markets. First results of policies so far suggest that less sector-specific regulation is likely to occur. Instead, regulators must ensure that access to networks and services of potentially dominant providers in a relevant broadband market will satisfy requirements for openness and non-discrimination. In this environment the future challenge of regulationg broadband markets will be to set the right incentives for investment into new infrastructures. This paper examines whether there is a need for the regulation of future broadband access markets an if yes, what is the appropriate regulatory tool to do so. Thereby the focus is on the analysis of European broadband markets and the regulatory approaches applied. The first section provides a description of the characteristics of future broadband markets. The second section discusses possible bottlenecks on broadband markets an their regulatory implications. The third section will examine regulatory issues concerning access to broadband networks in more detail. This will be done by comparing the regulatory approaches of European countries and the results in terms of bradband penetration. The final section will give key recommendations for a regulatory strategy on brandband access markets.
Hands-on-training in high technology areas is usually limited due to the high cost for lab infrastructure and equipment. One specific example is the field of MEMS, where investment and upkeep of clean rooms with microtechnology equipment is either financed by production or R&D projects greatly reducing the availability for education purposes. For efficient hands-on-courses a MEMS training foundry, currently used jointly by six higher education institutions, was established at FH Kaiserslautern. In a typical one week course, students manufacture a micromachined pressure sensor including all lithography, thin film and packaging steps. This compact and yet complete program is only possible because participants learn to use the different complex machines in advance via a Virtual Training Lab (VTL). In this paper we present the concept of the MEMS training foundry and the VTL preparation together with results from a scientific evaluation of the VTL over the last three years.
O Perfil Reiss apresenta no resultado uma visão da estrutura dos motivos e impulsos de uma pessoa. O ponto de saída para a análise do resultado é o conhecimento de que os motivos vitais (= valores e metas de sobrevivência) formam a moldura, na qual as competências e capacidades que uma pessoa possui possam se desabrochar de forma ideal. A partir desse princípio, não existe no Perfil Reiss nenhum resultado que se possa classificar como correto ou falso, nem como bom ou mau. Uma comparação entre o resultado do Perfil Reiss e o conteúdo de uma atividade apresentada ou ambicionada dá informação sobre até que ponto a capacidade de rendimento de uma pessoa nessa posição pode vir ou virá a se desenvolver por um longo tempo.
"Mit dem "1. Erfahrungsaustausch" im Fachbereich Bauingenieurwesen berichten Absolventen des Fachbereichs aus der Praxis. Mit diesem Treffen wird die wichtige Verbindung zwischen Hochschule, ihren Absolventen und der Berufspraxis zum besonderen Anliegen gemacht und besonders gestärkt." Zitat Prof. Dr.- Ing. Hans Boegershausen, Dekan im Grußwort. Referenten und Themen: Wellmann, Judith: Perspektiven eines Bauingenieurs im konstruktiven Ingenieurbau Dirk Gobbele, Dirk: Planung der Umbaumaßnahme Hauptbahnhof Aachen Kretschmann, Lars: Planung und Bauleitung Buschtunnel Aachen Becker, Astrid: Anlagenmanagement und Aufgaben der DB Netz AG, Bauherrenvertretung und Wirtschaftlichkeit Plenz, Michael: Baurevision und Unternehmensberatung, Tätigkeit als öffentlich bestellter und vereidigter Sachverständiger Klöcker, Alexander: Das Leitungsbauunternehmen – Unternehmerische Strategie als Zukunftssicherung Türk, Roman: Sanierung von Hausanschlüssen Bornebusch, Michael: Hydraulische und Hydrologische Modellsimulationen als Planungswerkzeug für Hochwasser-Schutz-Maßnahmen Himmerich, Jörg : Pipeline Integrity Management System – Probabilistische Bewertung von Bauwerken am Beispiel von Hochdruckleitungen.
In: Alfha.net / Sektion Bauingenieurwesen: 1. [Erster] Erfahrungsaustausch : Absolventen des Fachbereichs Bauingenieurwesens berichten. 13. Oktober 2006. S. 16-17 Der Umbau des Aachener Buschtunnels im Rahmen des europäischen Hochgeschwindigkeitsschienennetzes wird im sogenannten "Neuen Österreichischen Tunnelbauverfahren (NOeT)", also ein Ausbau in Kalotte, Strosse und Sohle durchgeführt.
In: Alfha.net / Sektion Bauingenieurwesen: 1. [Erster] Erfahrungsaustausch : Absolventen des Fachbereichs Bauingenieurwesens berichten. 13. Oktober 2006. S. 19-20. Zusammenfassung des Vortrags: Prozessanalyse und Revision beim Umbau des Flughafens Hamburg, Beratung von Bauunternehmen, Sachverständigentätigkeit
Table of contents 1. Introduction 2. Multi-level Technology Transfer Infrastructure 2.1 Level 1: University Education – Encourage the Idea of becoming an Entrepreneur 2.2 Level 2: Post Graduate Education – Improve your skills and focus it on a product family. 2.3 Level 3: Birth of a Company – Focus your skills on a product and a market segment. 2.4 Level 4: Ready to stand alone – Set up your own business 2.5 Level 5: Grow to be Strong – Develop your business 2.6 Level 6: Competitive and independent – Stay innovative. 3. Samples 3.1 Sample 1: Laser Processing and Consulting Centre, LBBZ 3.2 Sample 2: Prototyping Centre, CP 4. Funding - Waste money or even lost Money? 5. Conclusion
Study of swift heavy ion modified conduction polymer composites for application as gas sensor
(2006)
A polyaniline-based conducting composite was prepared by oxidative polymerisation of aniline in a polyvinylchloride (PVC) matrix. The coherent free standing thin films of the composite were prepared by a solution casting method. The polyvinyl chloride-polyaniline composites exposed to 120 MeV ions of silicon with total ion fluence ranging from 1011 to 1013 ions/cm2, were observed to be more sensitive towards ammonia gas than the unirradiated composite. The response time of the irradiated composites was observed to be comparably shorter. We report for the first time the application of swift heavy ion modified insulating polymer conducting polymer (IPCP) composites for sensing of ammonia gas.
A multi-sensor system is a chemical sensor system which quantitatively and qualitatively records gases with a combination of cross-sensitive gas sensor arrays and pattern recognition software. This paper addresses the issue of data analysis for identification of gases in a gas sensor array. We introduce a software tool for gas sensor array configuration and simulation. It concerns thereby about a modular software package for the acquisition of data of different sensors. A signal evaluation algorithm referred to as matrix method was used specifically for the software tool. This matrix method computes the gas concentrations from the signals of a sensor array. The software tool was used for the simulation of an array of five sensors to determine gas concentration of CH4, NH3, H2, CO and C2H5OH. The results of the present simulated sensor array indicate that the software tool is capable of the following: (a) identify a gas independently of its concentration; (b) estimate the concentration of the gas, even if the system was not previously exposed to this concentration; (c) tell when a gas concentration exceeds a certain value. A gas sensor data base was build for the configuration of the software. With the data base one can create, generate and manage scenarios and source files for the simulation. With the gas sensor data base and the simulation software an on-line Web-based version was developed, with which the user can configure and simulate sensor arrays on-line.
A solid-state amperometric hydrogen sensor based on a protonated Nafion membrane and catalytic active electrode operating at room temperature was fabricated and tested. Ionic conducting polymer-metal electrode interfaces were prepared chemically by using the impregnation-reduction method. The polymer membrane was impregnated with tetra-ammine platinum chloride hydrate and the metal ions were subsequently reduced by using either sodium tetrahydroborate or potassium tetrahydroborate. The hydrogen sensing characteristics with air as reference gas is reported. The sensors were capable of detecting hydrogen concentrations from 10 ppm to 10% in nitrogen. The response time was in the range of 10-30 s and a stable linear current output was observed. The thin Pt films were characterized by XRD, Infrared Spectroscopy, Optical Microscopy, Atomic Force Microscopy, Scanning Electron Microscopy and EDAX.
The workflow of a high throughput screening setup for the rapid identification of new and improved sensor materials is presented. The polyol method was applied to prepare nanoparticular metal oxides as base materials, which were functionalised by surface doping. Using multi-electrode substrates and high throughput impedance spectroscopy (HT-IS) a wide range of materials could be screened in a short time. Applying HT-IS in search of new selective gas sensing materials a NO2-tolerant NO sensing material with reduced sensitivities towards other test gases was identified based on iridium doped zinc oxide. Analogous behaviour was observed for iridium doped indium oxide.
Micromachined thermal heater platforms offer low electrical power consumption and high modulation speed, i.e. properties which are advantageous for realizing nondispersive infrared (NDIR) gas- and liquid monitoring systems. In this paper, we report on investigations on silicon-on-insulator (SOI) based infrared (IR) emitter devices heated by employing different kinds of metallic and semiconductor heater materials. Our results clearly reveal the superior high-temperature performance of semiconductor over metallic heater materials. Long-term stable emitter operation in the vicinity of 1300 K could be attained using heavily antimony-doped tin dioxide (SnO2:Sb) heater elements.
Hydrophobic magnetic nanoparticles (NPs) consisting of undecanoate-capped magnetite (Fe3O4, average diameter ca. 5 nm) are used to control quantized electron transfer to surface-confined redox units and metal NPs. A two-phase system consisting of an aqueous electrolyte solution and a toluene phase that includes the suspended undecanoatecapped magnetic NPs is used to control the interfacial properties of the electrode surface. The attracted magnetic NPs form a hydrophobic layer on the electrode surface resulting in the change of the mechanisms of the surface-confined electrochemical processes. A quinone-monolayer modified Au electrode demonstrates an aqueous-type of the electrochemical process (2e-+2H+ redox mechanism) for the quinone units in the absence of the hydrophobic magnetic NPs, while the attraction of the magnetic NPs to the surface results in the stepwise single-electron transfer mechanism characteristic of a dry nonaqueous medium. Also, the attraction of the hydrophobic magnetic NPs to the Au electrode surface modified with Au NPs (ca. 1.4 nm) yields a microenvironment with a low dielectric constant that results in the single-electron quantum charging of the Au NPs.
In this paper, methods of sample preparation for potentiometric measurement of phenylalanine are presented. Basing on the spectrophotometric measurements of phenylalanine, the concentrations of reagents of the enzymatic reaction (10 mM L-Phe, 0,4 mM NAD+, 2U L-PheDH) were determined. Then, the absorption spectrum of the reaction product, NADH, was monitored (maximum peak at 340 nm). The results obtained by the spectrophotometric method were compared with the results obtained by the colourimetry, using pH indicators. The above-mentioned two methods will be used as references for potentiometric measurements of phenylalanine concentration.
Novel organic membrane-based thin-film microsensors for the determination of heavy metal cations
(2006)
A first step towards the fabrication and electrochemical evaluation of thin-film microsensors based on organic PVC membranes for the determination of Hg(II), Cd(II), Pb(II) and Cu(II) ions in solutions has been realised. The membrane-coating mixture used in the preparation of this new type of microsensors is incorporating PVC as supporting matrix, o-nitrophenyloctylether (o-NPOE) as solvent mediator and a recently synthesized Hg[dimethylglyoxime(phene)]2+ and Bis-(4-hydroxyacetophenone)-ethylenediamine as electroactive materials for Hg(II) and Cd(II), respectively. A set of three commercialised ionophores for Cd(II), Pb(II) and Cu(II) has been also used for comparison. Thin-film microsensors based on these membranes showed a Nernstian response of slope (26-30 mV/dec.) for the respective tested cations. The potentiometric response characteristics (linear range, pH range, detection limit and response time) are comparable with those obtained by conventional membranes as well as coated wire electrodes prepared from the same membrane. The realisation of the new organic membrane-based thin-film microsensors overcomes the problem of an insufficient selectivity of solid-state-based thinfilm sensors.
The applicability of differential pulse voltammetry (DPV) and adsorptive stripping voltammetry (AdSV) at a non-toxic meniscus-modified silver solid amalgam electrode (m-AgSAE) for the determination of trace amounts of genotoxic substances was demonstrated on the determination of micromolar and submicromolar concentrations of 3-nitrofluoranthene using methanol - 0.01 mol L-1 NaOH (9:1) mixture as a base electrolyte and of Ostazine Orange using 0.01 mol L-1 NaOH as a base electrolyte.
This paper presents a two-dimensional-in-space mathematical model of biosensors based on an array of enzyme microreactors immobilised on a single electrode. The modeling system acts under amperometric conditions. The microreactors were modeled by particles and by strips. The model is based on the diffusion equations containing a nonlinear term related to the Michaelis-Menten kinetics of the enzymatic reaction. The model involves three regions: an array of enzyme microreactors where enzyme reaction as well as mass transport by diffusion takes place, a diffusion limiting region where only the diffusion takes place, and a convective region, where the analyte concentration is maintained constant. Using computer simulation, the influence of the geometry of the microreactors and of the diffusion region on the biosensor response was investigated. The digital simulation was carried out using the finite difference technique.
This paper reports a first microbial biosensor for rapid and cost-effective determination of organophosphorus pesticides fenitrothion and EPN. The biosensor consisted of recombinant PNP-degrading/oxidizing bacteria Pseudomonas putida JS444 anchoring and displaying organophosphorus hydrolase (OPH) on its cell surface as biological sensing element and a dissolved oxygen electrode as the transducer. Surfaceexpressed OPH catalyzed the hydrolysis of fenitrothion and EPN to release 3-methyl-4-nitrophenol and p-nitrophenol, respectively, which were oxidized by the enzymatic machinery of Pseudomonas putida JS444 to carbon dioxide while consuming oxygen, which was measured and correlated to the concentration of organophosphates. Under the optimum operating conditions, the biosensor was able to measure as low as 277 ppb of fenitrothion and 1.6 ppm of EPN without interference from phenolic compounds and other commonly used pesticides such as carbamate pesticides, triazine herbicides and organophosphate pesticides without nitrophenyl substituent. The applicability of the biosensor to lake water was also demonstrated.
An H2O2 sensor for the application in industrial sterilisation processes has been developed. Therefore, automated sterilisation equipment at laboratory scale has been constructed using parts from industrial sterilisation facilities. In addition, a software tool has been developed for the control of the sterilisation equipment at laboratory scale. First measurements with the developed sensor set-up as part of the sterilisation equipment have been performed and the sensor has been physically characterised by optical microscopy and SEM.
We report on the synthesis and CO gas-sensing properties of mesoporous tin(IV) oxides (SnO2). For the synthesis cetyltrimethylammonium bromide (CTABr) was used as a structure-directing agent; the resulting SnO2 powders were applied as films to commercially available sensor substrates by drop coating. Nitrogen physisorption shows specific surface areas up to 160 m2·g-1 and mean pore diameters of about 4 nm, as verified by TEM. The film conductance was measured in dependence on the CO concentration in humid synthetic air at a constant temperature of 300 °C. The sensors show a high sensitivity at low CO concentrations and turn out to be largely insensitive towards changes in the relative humidity. We compare the materials with commercially available SnO2-based sensors.
Quartz crystal nanobalance (QCN) sensors are considered as powerful masssensitive sensors to determine materials in the sub-nanogram level. In this study, a single piezoelectric quartz crystal nanobalance modified with polystyrene was employed to detect benzene, toluene, ethylbenzene and xylene (BTEX compounds). The frequency shift of the QCN sensor was found to be linear against the BTEX compound concentrations in the range about 1-45 mg l-1. The correlation coefficients for benzene, toluene, ethylbenzene, and xylene were 0.991, 0.9977, 0.9946 and 0.9971, respectively. The principal component analysis was also utilized to process the frequency response data of the single piezoelectric crystal at different times, considering to the different adsorption-desorption dynamics of BTEX compounds. Using principal component analysis, it was found that over 90% of the data variance could still be explained by use of two principal components (PC1 and PC2). Subsequently, the successful identification of benzene and toluene was possible through the principal component analysis of the transient responses of the polystyrene modified QCN sensor. The results showed that the polystyrene-modified QCN had favorable identification and quantification performances for the BTEX compounds.
An array of 50 MHz quartz microbalances (QMBs) coated with a dendronized polymer was used to detect small amounts of volatile organic compounds (VOCs) in the gas phase. The results were compared to those obtained with the commonly used 10 MHz QMBs. The 50 MHz QMBs proved to be a powerful tool for the detection of VOCs in the gas phase; therefore, they represent a promising alternative to the much more delicate surface acoustic wave devices (SAWs).
A concept for a sensitive micro total analysis system for high throughput fluorescence imaging
(2006)
This paper discusses possible methods for on-chip fluorescent imaging for integrated bio-sensors. The integration of optical and electro-optical accessories, according to suggested methods, can improve the performance of fluorescence imaging. It can boost the signal to background ratio by a few orders of magnitudes in comparison to conventional discrete setups. The methods that are present in this paper are oriented towards building reproducible arrays for high-throughput micro total analysis systems (µTAS). The first method relates to side illumination of the fluorescent material placed into microcompartments of the lab-on-chip. Its significance is in high utilization of excitation energy for low concentration of fluorescent material. The utilization of a transparent µLED chip, for the second method, allows the placement of the excitation light sources on the same optical axis with emission detector, such that the excitation and emission rays are directed controversly. The third method presents a spatial filtering of the excitation background.
GaAs-based Gunn diodes with graded AlGaAs hot electron injector heterostructures have been developed under the special needs in automotive applications. The fabrication of the Gunn diode chips was based on total substrate removal and processing of integrated Au heat sinks. Especially, the thermal and RF behavior of the diodes have been analyzed by DC, impedance and S-parameter measurements. The electrical investigations have revealed the functionality of the hot electron injector. An optimized layer structure could fulfill the requirements in adaptive cruise control (ACC) systems at 77 GHz with typical output power between 50 and 90 mW.
In this paper, methods of surface modification of different supports, i.e. glass and polymeric beads for enzyme immobilisation are described. The developed method of enzyme immobilisation is based on Schiff’s base formation between the amino groups on the enzyme surface and the aldehyde groups on the chemically modified surface of the supports. The surface of silicon modified by APTS and GOPS with immobilised enzyme was characterised by atomic force microscopy (AFM), time-of-flight secondary ion mass spectroscopy (ToF-SIMS) and infrared spectroscopy (FTIR). The supports with immobilised enzyme (urease) were also tested in combination with microreactors fabricated in silicon and Perspex, operating in a flow-through system. For microreactors filled with urease immobilised on glass beads (Sigma) and on polymeric beads (PAN), a very high and stable signal (pH change) was obtained. The developed method of urease immobilisation can be stated to be very effective.
Multi-interface level sensors and new development in monitoring and control of oil separators
(2006)
In the oil industry, huge saving may be made if suitable multi-interface level measurement systems are employed for effectively monitoring crude oil separators and efficient control of their operation. A number of techniques, e.g. externally mounted displacers, differential pressure transmitters and capacitance rod devices, have been developed to measure the separation process with gas, oil, water and other components. Because of the unavailability of suitable multi-interface level measurement systems, oil separators are currently operated by the trial-and-error approach. In this paper some conventional techniques, which have been used for level measurement in industry, and new development are discussed.
Various planar technologies are employed for developing solid-state sensors having low cost, small size and high reproducibility; thin- and thick-film technologies are most suitable for such productions. Screen-printing is especially suitable due to its simplicity, low-cost, high reproducibility and efficiency in large-scale production. This technology enables the deposition of a thick layer and allows precise pattern control. Moreover, this is a highly economic technology, saving large amounts of the used inks. In the course of repetitions of the film-deposition procedure there is no waste of material due to additivity of this thick-film technology. Finally, the thick films can be easily and quickly deposited on inexpensive substrates. In this contribution, thick-film ion-selective electrodes based on ionophores as well as crystalline ion-selective materials dedicated for potentiometric measurements are demonstrated. Analytical parameters of these sensors are comparable with those reported for conventional potentiometric electrodes. All mentioned thick-film strip electrodes have been totally fabricated in only one, fully automated thickfilm technology, without any additional manual, chemical or electrochemical steps. In all cases simple, inexpensive, commercially available materials, i.e. flexible, plastic substrates and easily cured polymer-based pastes were used.
In: Proceedings of the 39th Annual Hawaii International Conference on System Sciences, 2006. HICSS '06 http://dx.doi.org/10.1109/HICSS.2006.200 The conceptual design phase at the beginning of the building construction process is not adequately supported by any CAD-tool. Conceptual design support needs regarding two aspects: first, the architect must be able to develop conceptual sketches that provide abstraction from constructive details. Second, conceptually relevant knowledge should be available to check these conceptual sketches. The paper deals with knowledge to formalize for conceptual design. To enable domain experts formalizing knowledge, a graph-based specification is presented that allows the development of a domain ontology and design rules specific for one class of buildings at runtime. The provided tool support illustrates the introduced concepts and demonstrates the consistency analysis between knowledge and conceptual design.
In: Proc. of the 11th Intl. Conf. on Computing in Civil and Building Engineering (ICCCBE-XI) ed. Hugues Rivard, Montreal, Canada, Seite 1-12, ACSE (CD-ROM), 2006 Currently, the conceptual design phase is not adequately supported by any CAD tool. Neither the support while elaborating conceptual sketches, nor the automatic proof of correctness with respect to effective restrictions is currently provided by any commercial tool. To enable domain experts to store the common as well as their personal domain knowledge, we develop a visual language for knowledge formalization. In this paper, a major extension to the already existing concepts is introduced. The possibility to define rule dependencies extends the expressiveness of the knowledge definition language and contributes to the usability of our approach.
In: Technical feasibility and reliability of passive safety systems for nuclear power plants. Proceedings of an Advisory Group Meeting held in Jülich, 21-24 November 1994. - Vienna , 1996. - Seite: 43 - 55 IAEA-TECDOC-920 Abstract: It is shown that the difficulty for probabilistic fracture mechanics (PFM) is the general problem of the high reliability of a small population. There is no way around the problem as yet. Therefore what PFM can contribute to the reliability of steel pressure boundaries is demonstrated with the example of a typical reactor pressure vessel and critically discussed. Although no method is distinguishable that could give exact failure probabilities, PFM has several additional chances. Upper limits for failure probability may be obtained together with trends for design and operating conditions. Further, PFM can identify the most sensitive parameters, improved control of which would increase reliability. Thus PFM should play a vital role in the analysis of steel pressure boundaries despite all shortcomings.
A new and simple method for nanostructuring using conventional photolithography and layer expansion or pattern-size reduction technique is presented, which can further be applied for the fabrication of different nanostructures and nano-devices. The method is based on the conversion of a photolithographically patterned metal layer to a metal-oxide mask with improved pattern-size resolution using thermal oxidation. With this technique, the pattern size can be scaled down to several nanometer dimensions. The proposed method is experimentally demonstrated by preparing nanostructures with different configurations and layouts, like circles, rectangles, trapezoids, “fluidic-channel”-, “cantilever”- and meander-type structures.
Functional testing and characterisation of ISFETs on wafer level by means of a micro-droplet cell
(2006)
A wafer-level functionality testing and characterisation system for ISFETs (ionsensitive field-effect transistor) is realised by means of integration of a specifically designed capillary electrochemical micro-droplet cell into a commercial wafer prober-station. The developed system allows the identification and selection of “good” ISFETs at the earliest stage and to avoid expensive bonding, encapsulation and packaging processes for nonfunctioning ISFETs and thus, to decrease costs, which are wasted for bad dies. The developed system is also feasible for wafer-level characterisation of ISFETs in terms of sensitivity, hysteresis and response time. Additionally, the system might be also utilised for wafer-level testing of further electrochemical sensors.
Concept, scientific research and managerial applications of Provocative Coaching, according to the „Provocative Therapy“ of Prof. Dr. Frank Farrelly (University of Wisconsin, U.S.A) in terms of an application of the Provocative Communication Style in specific situations of practical leadership, especially in the role of a coach for their subordinates.
In: Konferenzband zur Konferenz Medienproduktion 2007, 1.12.2008. 29 S. High Quality Streaming beschäftigt sich mit High Definition Television und Mehrkanal Sound. In diesem Beitrag werden die Technologien und Anwendungsperspektiven für HD Medien-Dienstleistungen beschrieben. Der Beitrag entstand im Rahmen der Konferenz Medienproduktion „Expansion und Mobilität“ am 7. Dezember 2007. Der Beitrag beschreibt Geschäftsmodelle, Technologien und neue Anwendungen für High Quality Streaming. Neben der Präsentation wurden auch die Medienproduktionen der unterschiedlichen HQ-Mediendienste vorgeführt. Die Mediendienste sind im Rahmen der Forschungsarbeit High Quality Media Services des Studiengangs Communication and Multimedia Design (Fachbereich Elektrotechnik und Informationstechnik) an der Fachhochschule Aachen entstanden. Eine Marktevaluierung der deutschen und niederländischen Märkte, internationale Expertengesprächen sowie ein Prototypen HDMediaservices bilden die Basis der Forschungsarbeit. Die Mediendienste stehen zur Demonstration unter dem Link media.fh-aachen.de bereit. HQ-Mediendienste bedeuten: Gestochen scharfe Bilder in High Definition, volle Klänge in Surround und das über das Internet, wo doch gerade mal die briefmarkengroßen Bilder mit unscharfen Konturen und krätzenden Klängen der heutigen Portale wie YouTube Alltag sind.
Market data for the German telecom market shows that Deutsche Telekom as the former incumbent is constantly loosing shares on all arkets for voice telephony: the market for local calls, the market for long-distance calls and the market for international calls. At the same time prices decline steadily with the latest trend being that operators offer voice services free of charge, the costs of which are covered by a monthly subscription charge. Against this background the paper examines the state of policy and regulatory reform in the telecommunications sector in Germany almost 10 years after the liberalisation of the fixed telecommunications market. Thereby the focus is on the analysis of the competitive conditions that have been established on the German market for voice telephony services. If these retail markets are competitive, there might be a need to remove remaining regulatory provisions. In the new environment of converging markets the future challenge of regulating fixed telecom markets might be to ensure that access to the network and/or services of a potentially dominant provider in a relevant market will satisfy requirements for openness and non-discrimination.
Dipl.-Ing. Dirk Hecker von der Ingenieurgesellschaft Tuttahs & Meyer in Aachen. Vortrag gehalten beim 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> 27 S. (S. 28-54) Zusammenfassung [des Autors]: Nach den spektakulären Hochwasserereignissen an Rhein, Elbe und Donau hat die Deutsche Vereinigung für Wasserwirtschaft, Abwasser und Abfall e. V. (DWA) einen Fachausschuss zur Erstellung eines Merkblattes M 103 „Hochwasserschutz für Abwasseranlagen“ berufen. Das Merkblatt zeigt in den Kapiteln Konzeption, Planungsgrundsätze und Hochwassermanagement eine strukturierte Vorgehensweise zur bestmöglichen Vorsorge zum Schutz der Abwasseranlagen im Hochwasserfall. Entsprechend den Forderungen des im Jahr 2005 verabschiedeten Gesetzes zur Verbesserung des vorbeugenden Hochwasserschutzes, floss in das Wasserhaushaltsgesetz unter anderem die allgemeine Verpflichtung jedes potentiell vom Hochwasser Betroffenen ein, geeignete Schutzmaßnahmen zur Schadensminimierung zu treffen. Hierbei werden speziell die Wasserversorgung und die Abwasserbeseitigung erwähnt. Im DWA-M 103 wir detailliert dargestellt wie und mit welchem Aufwand die Abwasseranlagen zu überprüfen sind und wie hierzu ein Hochwasserschutzkonzept erstellt werden kann. Zusätzlich werden Hinweise für die Planung von Abwasseranlagen in hochwassergefährdeten Bereichen gegeben, die den störungsfreien Betrieb im Hochwasserfall gewährleisten sollen. Schlussendlich werden das Hochwassermanagement und der Betrieb dargestellt und hier wichtige Anregungen gegeben im Ernstfall ausreichend vorbereitet zu sein. Das DWA-M 103 richtet sich in erster Linie an die Betreiber und Planer von Abwasseranlagen. Jedoch werden hier auch, gerade durch die Vielzahl von Checklisten, Kommunen Denkanstöße und Anregungen für die Hochwasservorsorge/-schutz von öffentlichen Gebäuden und Einrichtungen gegeben.
Abstract des Beitrags zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> 1 S. : Bereits seit Jahrzehnten werden verschiedenste Injektions-Verfahren, welche teilweise aus den Vereinigten Staaten lizenziert wurden, in Deutschland angewendet, um Abwasserkanäle zu ertüchtigen. Die Resultate sind teilweise sehr umstritten, nicht zuletzt aufgrund unzureichender Materialeigenschaften in den Anfangsjahren der Anwendung. Viele Methoden sind darüber völlig aus dem Gebrauch gekommen und haben manchmal das ganze Verfahrensprinzip in Verruf gebracht. Mittlerweile wurden sowohl Verfahren als auch Materialien weiterentwickelt und sind nun in der Lage auch den aktuellen strengen und praxisnahen Testverfahren mittels Säuleninjektionsversuchen zur Beurteilung Umweltverträglichkeit zu genügen. Es wird ein kurzer Überblick über die derzeit am Markt befindlichen/üblichen Regelwerke, Verfahren und Materialien gegeben und die Grenzen und Möglichkeiten im Rahmen der Kanalsanierung aufgezeigt.
Dr.-Ing. Lothar Fuchs vom itwh Hannover mit 13 Seiten (S. 57-69) Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> Zusammenfassung [des Autors] Die wesentlichen technischen Probleme der Kanalnetzbewirtschaftung sind gelöst. Der Markt bietet bewährte Messgeräte, Steuerungseinrichtungen, Datenübertragungs-, Regler- und Rechnersysteme, die sich für den Einsatz in der Stadtentwässerung eignen. Mit den heute existierenden Simulationsmodellen können die Auswirkungen von Bewirtschaftungssystemen abgeschätzt werden, bevor diese implementiert werden. Die für Bewirtschaftungssysteme notwendige Ausrüstung ist eine andere, als die traditionell in der Stadtentwässerung übliche. Sie erfordert in jedem Fall mehr und teureren Wartungsaufwand sowie anders ausgebildetes Personal. Bei einem Kostenvergleich mit konventionellen (d.h. ungesteuerten) Systemen muß die umfassende Information und Kontrolle des bewirtschafteten Systems berücksichtigt werden. Die permanente Information über den Betriebszustand sowie die in allen existierenden Bewirtschaftungssystemen erreichten Verminderungen von Regenentlastungen und (in geringerem Maße) hydraulischen Überlastungen lassen es geraten erscheinen, Kanalnetzbewirtschaftung nicht nur unter dem Gesichtspunkt der höheren Betriebskosten, sondern auch denen der möglich Einsparungen von Investitionen und der höheren Effizienz zu beurteilen. Analog lässt sich zeigen, dass bewirtschaftete Systeme kleiner ausgelegt werden können und dennoch die gleiche Effizienz besitzen wie größer dimensionierte, statisch wirkende Systeme.
Dipl.-Ing. Ralf Engels - DHI Wasser und Umwelt GmbH, Syke. 24 S. (S. 70-93) Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1,2007, Aachen> Einleitung [des Autors] Die hydrodynamische Kanalnetzmodellierung ist ein Standardwerkzeug für die Bemessung von Kanalnetzen. Neben der Berechnung der hydrologischen und hydraulischen Gegebenheiten in einem städtischen Einzugsgebiet gehören auch weiterführende Technologien mittlerweile zum Standard. So können alle steuerbaren Elemente eines Kanalnetzes dynamisch so optimiert werden, dass die Leistungsfähigkeit des Kanalnetzes zusätzlich gesteigert werden kann. Automatische Werkzeuge zur dynamischen hydraulischen Schmutzfrachtberechnung ermöglichen die Erweiterung der Steuerung – insbesondere von Entlastungsanlagen – im Hinblick auf die entlasteten Schmutzfrachten und geben darüber hinaus detaillierte Informationen für den Betrieb der Kläranlage. Weiterführende biologische Prozessmodellierungen ergänzen dieses Themenfeld. GIS Werkzeuge können bei der räumlich differenzierten Modellierung von Kanalnetzen wertvolle Dienste leisten. Die detaillierte Betrachtung einzelner Haltungsflächen in ihrem räumlichen Zusammenhang ist damit ebenso möglich wie eine komplette Verwaltung aller für die Kanalnetzmodellierung notwendigen Daten in einem übersichtlichen grafischen Menü. Die Grenzen der Kanalnetzmodellierung lagen in früheren Zeiten an dessen Rand. Detaillierte Informationen über die Wege des Wassers auf der Geländeoberfläche, an der Schnittstelle zu Vorflutern und in der Interaktion mit Grundwasser waren bisher nicht modelltechnisch bewertbar. Eine dynamische Kopplung verschiedener Modelle zur Darstellung aller relevanten hydraulischen Prozesse ermöglicht eine integrative Betrachtung aller möglichen Wege, die das Wasser in der Stadt nehmen kann (Mark & Djordjevic, 2006). Dieser Beitrag präsentiert den Stand der Technik für die integrierte Modellierung städtischer Überschwemmungen mit Hilfe der Modellkopplung von Oberflächenmodellen und Kanalnetzmodellen.
Das Oberflächenabflussmodell von Keser und die Grenzwertmethode : Die Abflussbildung im Vergleich.
(2007)
Dipl.-Ing. Rudolf Herzog , Rehm Software Berg / Ravensburg. 9 S. (S. 94-102). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft a1, 2007, Aachen>. Zusammenfassung [des Autors] Die grundlegenden Ansätze der beiden Modelle sind ähnlich. Der hauptsächliche Unterschied liegt darin, dass die Grenzwertmethode die Angabe einer Bodenart erfordert, die ihrerseits wieder Probleme verursachen kann. Es kann nicht davon ausgegangen werden, dass die Bodenarten homogen anliegen. Die ersatzweise Vorgabe einer für alle Einzugsgebiete einheitlichen Bodenart hilft da nicht wirklich weiter. Es stellt sich vielmehr die Frage, ob der zusätzliche Aufwand eine signifikante Verbesserung des Ereignisses zur Folge hat. Der Vorteil der Grenzwertmethode liegt auf der Hand: Die Parameterwahl ermöglicht eine flexible Steuerung des Modells, in die Abflussbildung kann differenziert eingegriffen werden. Das NA-Geschehen kann weitgehend kalibriert werden. Es ist allerdings auch zu bedenken, dass die Flexibilität des Modells risikobehaftet ist - die Abflussbildung kann nach Belieben beeinflusst werden. Fazit: Flexibel in der Anwendung, bei NA-Messung empfehlenswert. Im Allgemeinen geringere Abflussmengen als Keser. Die Blackbox von Keser ist zwar nicht steuerbar, entzieht sich damit aber auch Wissensdefiziten und Manipulationseinflüssen. Über Parameter und deren Auswirkungen muss nicht spekuliert werden. Wenn mehrere Personen mit dem Modell von Keser arbeiten, ergeben sich im Gegensatz zur Grenzwertmethode zwangsweise dieselben Ergebnisse - gleiche geometrische Oberflächendaten vorausgesetzt. Außerdem kommt Keser ohne die Bodenart aus. Fazit: Bei BFG >20%, einfache Handhabung, geringer Aufwand. Gegenüber der Grenzwertmethode (mittlere Verhältnisse) jedoch etwas höhere Abflüsse. Das Programmpaket HYKAS der Fa. Rehm Software ermöglicht u.a. den Nachweis von Kanalnetzen und bietet in diesem Zusammenhang beide Modellansätze zur Auswahl an. Der Programmanwender kann damit eine am Datenbestand bzw. an den Vorgaben des Auftraggebers ausgerichtete Modellauswahl treffen. Die realitätsnahe Ermittlung der Oberflächenabflüsse ist kompliziert. Weitere Unwegsamkeiten warten nach der Abflussbildung bei der Abflusskonzentration auf: Es ist z.B. die Festlegung der Fließlänge auf der Oberfläche erforderlich... Es ist noch ein weiter Weg bis zur Kläranlage.
Dr.-Ing. Raju M. Rohde , Dorsch Consult Wasser und Umwelt GmbH, München mit 32 Folien (S. 103-134). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen>. Das System BaSYS.L.E.O. Ganglinien-Volumen-Methode Hydrodynamische Kanalnetzberechnung Hydraulische Objekte Hydrodynamische Schmutzfrachtberechnung
Dipl.Ing. Johann Andorfer , Tandler.com GmbH, Buch a. Erlbach. Abstract zum 1. Aachener Softwaretag in der Wasserwirtschaft <1,2007, Aachen>. 2 S. (S. 136-137) Eine nachhaltige Sicherung der Funktionalität und der ökologischen Verträglichkeit eines mittleren bis großen Kanalnetzes erfordert eine umfassende und detaillierte Modellierung in Raum und Zeit. Um den in den Richtlinien geforderten statistischen Anforderungen gerecht zu werden und die jährlichen Häufigkeiten, Mengen und Zeiträume der Belastungen erwartungstreu abschätzen zu können, ist es zielführend und notwendig, lange Zeiträume und die Gesamtheit der Einzugsgebiete möglichst detailliert zu betrachten. Die hydraulische Funktionalität und Sicherheit soll meistens mit Hilfe zeitsymmetrischer (hydrodynamischer) Verfahren nur durch Betrachtung von Modellregen, allenfalls Regenserien, sichergestellt werden. Für die Abschätzung der jährlich zu erwartenden Emissionen in unsere natürlichen Gewässer mit ihren Mengen, Frequenzen und Dauern werden normalerweise Langzeitsimulationen natürlicher Regenreihen über möglichst große Zeiträume mit zeitasymmetrischen (hydrologischen) Verfahren durchgeführt. Die betrachteten Kanalnetze werden zumeist vereinfacht (Grobnetze), um die Rechenzeiten erträglicher zu gestalten. Wünschenswert wäre jedoch eine allen Anforderungen gerecht werdende wirklichkeitsnahe Modellierung des gesamten Kanalnetzes in all seinen Details, Vermaschungen und Wechselwirkungen (Feinnetz) und dessen zeitsymmetrische und damit verlässliche Simulation mit langjährigen Regenreihen. Bereits vor 15 Jahren wurde im Hause Tandler begonnen, die Berechnungssoftware durch Parallelisierung auf symmetrische Multiprozessortechnologien auszurichten. In neuerer Zeit hält diese Technik durch die Mehrkernprozessoren in normalen Notebooks und PCs Einzug in die Ingenieurbüros und Abwasserbetriebe und sorgt schon für wesentliche Einsparungen an Rechenzeit. Doch erst durch die Kombination der Parallelisierung mit dem Prinzip des verteilten Rechnens (d.h. die Einbeziehung mehrerer PCs eines Netzwerkes in die Berechnung) erhält man die Chance ausreichend Rechenkapazität zur Verfügung zu stellen, um nicht nur eine einzelne Langzeitsimulation eines Feinnetzes durchzuführen, sondern sogar mehrere Sanierungsalternativen zu überprüfen. Die zukunftsweisenden Arbeiten von Dipl. Math. R. Tandler auf diesem Gebiet sind Thema dieses Vortrags.
Geräuschminderung und Leichtbau in Leistungsgetrieben durch den Einsatz von Werkstoffverbunden
(2007)
A procedure for the evaluation of the failure probability of elastic-plastic thin shell structures is presented. The procedure involves a deterministic limit and shakedown analysis for each probabilistic iteration which is based on the kinematical approach and the use the exact Ilyushin yield surface. Based on a direct definition of the limit state function, the non-linear problems may be efficiently solved by using the First and Second Order Reliabiblity Methods (Form/SORM). This direct approach reduces considerably the necessary knowledge of uncertain technological input data, computing costs and the numerical error. In: Computational plasticity / ed. by Eugenio Onate. Dordrecht: Springer 2007. VII, 265 S. (Computational Methods in Applied Sciences ; 7) (COMPLAS IX. Part 1 . International Center for Numerical Methods in Engineering (CIMNE)). ISBN 978-1-402-06576-7 S. 186-189
Proceedings of the International Conference on Material Theory and Nonlinear Dynamics. MatDyn. Hanoi, Vietnam, Sept. 24-26, 2007, 8 p. In this paper, a method is introduced to determine the limit load of general shells using the finite element method. The method is based on an upper bound limit and shakedown analysis with elastic-perfectly plastic material model. A non-linear constrained optimisation problem is solved by using Newton’s method in conjunction with a penalty method and the Lagrangean dual method. Numerical investigation of a pipe bend subjected to bending moments proves the effectiveness of the algorithm.
Dr.-Ing. Martin Wolf ; Dipl.-Kaufm. Daniel Ulbrich , Dr. Pecher und Partner Ingenieurgesellschaft mbH, München. 31 S. (S. 139-168). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft < 1, 2007, Aachen>. Zusammenfasung [der Autoren] Die öffentlichen Kanalnetze Deutschlands stellen mit einem Wert von rd. 330 Mrd. € ein enormes Anlagevermögen dar. Auf Grund des oft schlechten Zustandes und geringer Ausgaben zur Instandhaltung und Erneuerung ist zu erwarten, dass durch die gegenwärtige Sanierungspraxis eher ein Substanzwertverzehr des Kanalnetzes als ein Substanzwerterhalt im Sinne des Generationenvertrages erzielt wird. Für einen nachhaltigen Betrieb und Erhalt der Kanalnetze sind deshalb Sanierungsstrategien erforderlich, die neben den technischen und gesetzlichen Anforderungen auch den mittel- und langfristigen Substanzwertverlauf berücksichtigen. Dieser wird beeinflusst vom erforderlichen oder durchgeführten Sanierungsumfang, Art und Zusammensetzung der ausgewählten Maßnahmen sowie der zeitlichen Abfolge der Sanierungsmaßnahmen. Erheblichen Einfluss auf den Substanzwertverlauf hat zudem die Berücksichtigung der hydraulischen Verhältnisse sowie der optisch nicht sichtbaren Undichtheiten. Entsprechend ist es erforderlich, die tatsächlich vorhandenen Defizite zu ermitteln und die Sanierungsmaßnahmen sowie eine Strategie zur Umsetzung zu erarbeiten. Da sich gezeigt hat, dass alleine die Einhaltung der technischen und gesetzlichen Anforderung für einen Substanzwerterhalt nicht ausreicht, muss die geplante Strategie im Dr.-Ing. Martin Wolf 139 von 170 Decision-Support-System kokas zur Sanierungsplanung und Strategieentwicklung 1. Aachener Softwaretag in der Wasserwirtschaft Hinblick auf die nachhaltige Wertentwicklung überprüft und ggf. Anpassungen vorgenommen werden. Kurzfristig erzielte Einsparungen durch reduzierten Schadensumfang oder einseitige Maßnahmenwahl ermöglichen zwar im günstigsten Fall, die Anforderungen einzuhalten, gehen jedoch zwangsläufig zu Lasten des Substanzwertes und führen mittel- und langfristig zu einer Verschärfung der Kosten- und Gebührensituation. Der monetäre, am konkreten Sanierungsaufwand orientierte Substanzwertansatz ermöglicht dabei, technische und kaufmännische Gesichtspunkte praxisnah zu verknüpfen und den bestmöglichen Ausgleich zwischen den gegenläufigen Zielen Substanzwerterhalt und Gebührenkonstanz zu finden.
"[...] Der erste Teil des Vortags konzentriert sich auf die bei Ericsson gemachten Erfahrungen. Welche Muster wurden identifiziert, für welche Tests wurden sie eingesetzt. Wie werden diese Muster verwendet, wie werden sie beschrieben und spezifiziert. Und schließlich, wie entsteht eine Art Standardisierung, in der das Wissen über diese Muster als Organisationswissen zur Verfügung steht.
Im zweiten Teil des Vortrags werden die bei Ericsson gemachten Erfahrungen verallgemeinert. Die bei Ericsson verwendeten Muster werden auf allgemeine Strukturen übertragen (z.B. Client-Server). Es wird gezeigt, wie die Zuordnung von Testverfahren auf Netzwerkmuster auch in anderen Domänen verwendet wird und welche Vorteile sich damit erzielen lassen."
Quelle: http://www.qs-tag.de/fileadmin/software-qs-tag/public/2007/abstract_jacobs.shtml
On 1st January 1998, the German telecom market was fully liberalised. Since then genuine competition between market participants has developed, based on a comprehensive legal and regulatory framework that provides for safeguards against unfair competition and market power by Deutsche Telekom. Today, about 10 years after the liberalisation of the telecommunications sector a revision of this regulatory approach has become necessary because at least on three dimensions the situation is quite different from the one 10 years ago: First, with numerous established alternative operators in the market monopolies have been successfully challenged and competition introduced. Second, not only is Cable TV becoming in large parts of Germany a viable alternative for the provision of broadband services but also mobile services are becoming increasingly a substitute for fixed services. Last but not least there are important technological changes under way, requiring huge investments in infrastructure upgrades for next generation networks. In the light of these new developments the question is to which extent the current regulatory approach of severe ex-ante regulatory intervention is still appropriate. Is any part of the network of the former incumbent still a bottleneck? A more light handed regulatory approach might be the right response to this new situation. The paper is organised as follows: The first section will briefly examine the economic rationale for regulating network access. Based on the assumption that regulation is always necessary when bottlenecks exist regulatory principles for an efficient network access regime will be derived. The second section compares the situation of the German market in early 1998 with the one of today. Thereby three dimensions will be considered: the degree of competition, the potential for substitution and technological developments. The third section will define some requirements for the future regulation of telecom markets. Proposals will be elaborated how to ensure competitive telecom markets in the light of new economic and technological challenges.
- Wie kam es zu der globalen Finanzkrise? - Wodurch zeichnet sich die Finanzkrise aus? - Wer hat die Finanzkrise verschuldet? - Welche Rolle spielten Spekulanten? - Inwiefern ist die Finanzkrise selbstverschuldet? - Ist die Globalisierung Schuld an den Finanzkrisen in zahlreichen Regionen dieser Welt? - Wie wirkt sich die Finanzkrise auf die Realwirtschaft aus? - Welche Wege bieten sich, aus der Krise herauszukommen?
Inhaltsverzeichnis: Kettern, Jürgen : Grußwort des Dekans Kleiker, Walter : Grußwort des Sektionsleiters Bau des alpha.net Wijnhoven, Ralf : Bauausführung von 14 Brunnenanlagen und 4 km Rohrleitung zur Regelung des Grundwasserstandes und der Vorflut in Voerde-Mehrum. S. 10-11 Ruwisch, Thomas : Spurplanänderung im Bahnhof Düsseldorf-Gerresheim : Wusch, Planung, Planrecht und die Umwelt. S. 12-13. Rickes, Tanja : Bauablaufsteuerung einer Linienbaustelle am Beispiel des Fahrbahnbaus der "HSL-Zuid". S. 14-15. Plum, Andreas : Brandschutzingenieurwesen - Eine Ingenieurdisziplim hat die Akzeptanzschwelle überschritten. Teil 1: Brandsimulationsberechnung. S. 18-19 Flesch, Tobias : Brandschutzingenieurwesen - Eine Ingenieurdisziplin hat die Akzeptanzschwelle überschritten. Teil 2: Tragwerksbemessung im Brandfall. S. 20-21. Müller, Bert : Neubau für die Mediengruppe RTL-Deutschland - High-Tech in dankmalgeschützter Fassade. S. 24-25. Hermens, Gereon : Erhöhung der Akzeptanz von Wasserkraft durch den Bau von Fischaufstiegsanlagen: Umweltschonende Energie für Natur und Klima. S. 26-27 Klitzing, Bastian : Kläranlagenoptimierung : Zukunftsweisende Planungen im Bereich Abwasserreinigung und Energiegewinnung. S. 28-29. Ginster, Marco : Die neue Rheinbrücke Wesel. S. 32-33 Tilke, Hermann ; Wersch, Ralf van : Bauen für einen schnellen Sport. S. 34-35.
Abstract of the authors: In many areas of computer science ontologies become more and more important. The use of ontologies for domain modeling often brings up the issue of ontology integration. The task of merging several ontologies, covering specific subdomains, into one united ontology has to be solved. Many approaches for ontology integration aim at automating the process of ontology alignment. However, a complete automation is not feasible, and user interaction is always required. Nevertheless, most ontology integration tools offer only very limited support for the interactive part of the integration process. In this paper, we present a novel approach for the interactive integration of ontologies. The result of the ontology integration is incrementally updated after each definition of a correspondence between ontology elements. The user is guided through the ontologies to be integrated. By restricting the possible user actions, the integrity of all defined correspondences is ensured by the tool we developed. We evaluated our tool by integrating different regulations concerning building design.
7th International Conference on Reliability of Materials and Structures (RELMAS 2008). June 17 - 20, 2008 ; Saint Petersburg, Russia. pp 354-358. Reprint with corrections in red Introduction Analysis of advanced structures working under extreme heavy loading such as nuclear power plants and piping system should take into account the randomness of loading, geometrical and material parameters. The existing reliability are restricted mostly to the elastic working regime, e.g. allowable local stresses. Development of the limit and shakedown reliability-based analysis and design methods, exploiting potential of the shakedown working regime, is highly needed. In this paper the application of a new algorithm of probabilistic limit and shakedown analysis for shell structures is presented, in which the loading and strength of the material as well as the thickness of the shell are considered as random variables. The reliability analysis problems may be efficiently solved by using a system combining the available FE codes, a deterministic limit and shakedown analysis, and the First and Second Order Reliability Methods (FORM/SORM). Non-linear sensitivity analyses are obtained directly from the solution of the deterministic problem without extra computational costs.
The sorption of LPS toxic shock by nanoparticles on base of carbonized vegetable raw materials
(2008)
Immobilization of lactobacillus on high temperature carbonizated vegetable raw material (rice husk, grape stones) increases their physiological activity and the quantity of the antibacterial metabolits, that consequently lead to increase of the antagonistic activity of lactobacillus. It is implies that the use of the nanosorbents for the attachment of the probiotical microorganisms are highly perspective for decision the important problems, such as the probiotical preparations delivery to the right address and their attachment to intestines mucosa with the following detoxication of gastro-intestinal tract and the normalization of it’s microecology. Besides that, thus, the received carbonizated nanoparticles have peculiar properties – ability to sorption of LPS toxical shock and, hence, to the detoxication of LPS.
Dipl.-Ing. Stefan Overkamp - GISWORKS GbR, Velbert. 11 S. (S. 7-17). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Aus der Gliederung: 1 Geoinformationssysteme 2 Anforderungen an eine kommunale Geodateninfrastruktur (GDI) 3 Komponenten einer GDI 3.1 Geodatenmanagement 3.2 Geodatenhaltung 3.3 High-End-GIS 3.4 intraGIS 4 GISWORKS 5 Weiterführende Informationen
Dr.-Ing. Oliver Stoschek [u.a.] DHI Wasser und Umwelt GmbH, Syke. 14 S. (S. 45-58). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Ökologische Modelle zur Berechnung der Temperaturveränderung und den Einfluss von Kühlwasser auf die Wassertemperatur der Elbe. Die vorgelegte Arbeit wurde beauftragt und unterstützt von der ARGE Elbe im Zuge der Neuauflage des Wärmelastplans Elbe.
Mischwassereinleitungen in Gewässer nach BWK Merkblatt M3 - Vorteile des detaillierten Nachweises
(2009)
Dipl.-Ing. Brigitte Huber und Dr.-Ing. Gerd Demny - Wasserverband Eifel Rur, Düren. 16 Seiten ( S. 59-74). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Zusammenfassung [der Autoren] Für das städtisch geprägte Einzugsgebiet des Broicher Baches sind ein vereinfachter und ein detaillierter Nachweis nach BWK-M3 durchgeführt worden. Dabei zeigt sich, dass die Methodik des vereinfachten Nachweises nicht geeignet ist, um eine realitätsnahe Abbildung der einleitungsgeprägten Abflüsse des Gewässers zu erhalten. Dies ist insbesondere auf die Vernachlässigung von Wellentranslation und -retention im Gerinne zurückzuführen. Die dadurch entstehende Fehleinschätzung der Abflussverhältnisse versperrt den Blick auf eine situationsgerechte Maßnahmenplanung. Der mit Hilfe eines NA-Modells geführte detaillierte Nachweis ist zwar in der Erstellung aufwändiger, zeichnet aber ein reales Bild der Abflusserhöhung durch Einleitungen. Mit Hilfe des Modells können die wesentlichen Einflüsse schnell lokalisiert und zielführende Maßnahmenvarianten identifiziert werden. In dem hier vorgestellten Beispiel des Broicher Baches können die ursprünglich identifizierten acht Maßnahmen auf eine reduziert werden. Das Gesamtvolumen der erforderlichen Rückhaltungen wird um die Hälfte verringert. Der Vergleich beider Nachweismethoden legt nach Ansicht der Autoren nahe, den vereinfachten Nachweis höchstens für eine erste Einschätzung des Maßnahmenbedarfs anzuwenden. Die Maßnahmenidentifikation und -dimensionierung sollte grundsätzlich mit der detaillierten Nachweismethode durchgeführt werden, die auf einem entsprechenden NA-Modell basiert. Dies gilt insbesondere für Gewässerstrecken, deren Abfluss durch mehrere, hintereinander liegende Einleitungsstellen geprägt ist.
Dipl.-Ing. Hartmut Hoevel - Erftverband, Bergheim. 3 Seiten (S. 75-77). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Die Erft ist ein linker Nebenfluss des Rheins. Der Fluss ist durch eingeleitetes Sümpfungswasser aus dem rheinischen Braunkohletagebau hinsichtlich der Wassermenge und der Temperatur stark belastet. Die vorgestellten Überlegungen betreffen die Fragen: 1. Wie soll die Erft im Jahr 2045, also nach dem voraussichtlichen Ende der Tagebauaktivitäten im Rheinischen Braunkohlerevier und damit einhergehender Beenigung der Sümpfungswassereinleitung, aussehen? 2. Wie schnell und auf welche Weise soll die Umgestaltung der Erft vonstatten gehen?
Die ökologische Umgestaltung der Dhünn in Leverkusen – Ein Beispiel für die praktische Planung
(2009)
Dipl.-Ing. (FH) Dieter Stein M.Sc (Environmental Engineering) - Landschaftsarchitekt AKNW, Grevenbroich. 14 Seiten ( S. 78-91). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen>. Zusammenfassung [des Autors] Unter Berücksichtigung vorhandener örtlicher Gegebenheiten und technischer Einrichtungen (wie z.B. Verkehrstrassen, Versorgungsleitungen, Einlaufbauwerke etc.) hat die Dhünn innerhalb der Deiche mehr Bewegungsfreiheit erhalten. Der Hochwasserschutz bleibt dabei weiterhin gewährleistet. Die Gehölzstrukturen im Uferbereich wurden weitgehend erhalten. Dort, wo die Bauarbeiten eine Entfernung von Gehölzen erforderlich machten, wurden die Flächen bewusst einer eigenständigen Entwicklung überlassen. In diesen Bereichen werden sich im Laufe der Zeit von selbst neue Pflanzen und Gehölze ansiedeln. Mit der naturnahen Umgestaltung der Dhünn als "Starthilfe" kann die Natur die weitere Entwicklung übernehmen: Tier- und Pflanzenarten können sich das ehemals kanalartig ausgebaute Gewässer "zurückerobern", Fische und Kleintiere finden Nahrung und Ruheplätze. Für die Menschen entsteht ein wertvoller Erholungsraum mitten in der Stadt. Trotz zahlreicher Akteure und erheblicher Restriktionen konnte das Projekt in relativ kurzer Zeit realisiert werden. Dem Wupperverband (Untere Lichtenplatzer Str. 100; 42289 Wuppertal) und hier vor allem den Projektleitern Herrn Arnim Lützenberger und Herrn Andreas Oberborbeck sei an dieser Stelle besonders für eine hervorragende Zusammenarbeit gedankt.
In the presented paper data collected from the field related to damage statistics of electrical and electronic apparatus in household are reported and investigated. These damages (total number approx. 74000 cases), registered by five German insurance companies in 2005 and 2006, were adviced by customers as caused by lightning overvoltages. With the use of stochastical methods it is possible, to reasses the collected data and to distinguish between cases, which are with high probability caused by lightning overvoltages, and those, which are not. If there was an indication for a direct strike, this case was excluded, so the focus was only on indirect lightning flashes, i.e. only flashes to ground near the structure and flashes to or nearby an incoming service line were investigated. The data from the field contain the location of damaged apparatus (residence of the policy holder) and the distances of the nearest cloud-to-ground stroke to the location of the damage registered by the German lightning location network BLIDS at the date of damage. The statistical data along with some complementary numerical simulations allow to verify the correspondence of the Standards rules used for IEC 62305-2 with the field data and to define some correction needs. The results could lead to a better understanding whether a damage reported to an insurance company is really caused by indirect lightning, or not.
[Paper of the X International Symposium on Lightning Protection 9th - 13th November, 2009 - Curitiba, Brazil. 6 pages] The international standard IEC 62305-3, published in 2006, requires as an integral part of the lightning protection system (LPS) the consideration of a separation distance between the conductors of the LPS and metal and electrical installations inside the structure to be protected. IEC 62305-3 gives two different methods for this calculation: a standard, simplified approach and a more detailed approach, which differ especially regarding the treatment of the current sharing effect on the LPS conductors. Hence, different results for the separation distance are possible, leading to some discrepancies in the use of the standard. The standard approach defined in the main part (Clause 6.3) and in Annex C of the standard in some cases may lead to a severe oversizing of the required separation distance. The detailed approach described in Annex E naturally gives more correct results. However, a calculation of the current sharing amongst all parts of the air-termination and downconductor network is necessary, in many cases requiring the use of network analysis programs. In this paper simplified methods for the assessment of the current sharing are presented, which are easy to use as well as sufficiently adequate.
8. VDE/ABB-Blitzschutztagung, 29. - 30. Oktober 2009 in Neu-Ulm. Blitzschutztagung <8, 2009, Neu-Ulm> Berlin : VDE Verl. 2009 Großkraftwerke können durch Blitzentladungen mit potentiellen Auswirkungen auf deren Verfügbarkeit und Sicherheit gefährdet werden. Ein sehr spezielles Szenario, welches aus aktuellem Anlass zu untersuchen war, betrifft den kraftwerksnahen Blitzeinschlag in die Hochspannungs-Freileitung am Netzanschluss der Anlage. Wird nun noch ein sogenannter Schirmfehler unterstellt, d.h. der direkte Blitzeinschlag erfolgt in ein Leiterseil des Hoch- bzw. Höchstspannungsnetzes und nicht in das darüber gespannte Erdseil, so bedeutet dies eine extreme elektromagnetische Einwirkung. Der vorliegende Beitrag befasst sich mit der Simulation eines solchen Blitzeinschlages und dessen Auswirkungen auf den Netzanschluss und die Komponenten der elektrischen Eigenbedarfsanlagen eines Kraftwerks auf den unterlagerten Spannungsebenen. Die dabei gewonnenen Erkenntnisse lassen sich ohne Einschränkungen auf Industrieanlagen mit Mittelspannungs-Netzanschluss und ohne eigener Stromversorgung übertragen.
The ANM’09 multi-disciplinary scientific program includes topics in the fields of "Nanotechnology and Microelectronics" ranging from "Bio/Micro/Nano Materials and Interfacing" aspects, "Chemical and Bio-Sensors", "Magnetic and Superconducting Devices", "MEMS and Microfluidics" over "Theoretical Aspects, Methods and Modelling" up to the important bridging "Academics meet Industry".
Working paper distributed at 2nd Annual Next Generation Telecommunications Conference 2009, 13th – 14th October 2009, Brussels 14 pages Abstract Governments all over Europe are in the process of adopting new broadband strategies. The objective is to create modern telecommunications networks based on powerful broadband infrastructures". In doing so, they aim for innovative and investment-friendly concepts. For instance, in a recently published consultation paper on the subject the German regulator BNetzA declared that it will take “greater account of … reducing risks, securing the investment and innovation power, providing planning certainty and transparency – in order to support and advance broadband rollout in Germany”. It further states that when regulating wholesale rates it has to be ensured that “… adequate incentives for network rollout are provided on the one hand, while sustainable and fair competition is ensured on the other”. Also an EC draft recommendation on regulated network access is about to set new standards for the regulation of next generation access networks. According to the recommendation the prices of new assets shall be based on costs plus a projectspecific risk premium to be included in the costs of capital for the investment risk incurred by the operator. This approach has been criticised from various sides. In particular it has been questioned whether such an approach is adequate to meet the objectives of encouraging both competition and investment into next generation access networks. Against this background, the concept of “long term risk sharing contracts” has been proposed recently as an approach which does not only incorporate the various additional risks involved in the deployment of NGA infrastructure, but has several other advantages. This paper will demonstrate that the concept allows for competition to evolve at both the retail and wholesale level on fair, objective, non-discriminatory and transparent terms and conditions. Moreover, it ensures the highest possible investment incentive in line with socially desirable outcome. The paper is organised as follows: The next section will briefly outline the importance of encouraging competition and investment in an NGA-environment. The third section will specify the design of long term risk sharing contracts in view of achieving these objectives. The fourth section will examine potential problems associated with the concept. In doing so a way of how to deal with them will be elaborated. The last section will look at arguments against long term risk sharing contracts. It will be shown that these arguments are not strong enough to build a case against introducing such contracts.
One of interesting but not well known water properties is related to appearance of highly ordered structures in response to strong electrical field. In 1893 Sir William Armstrong placed a cotton thread between two wine glasses filled with chemically pure water. When high DC voltage was applied between the glasses, a connection consisting of water formed, producing a "water bridge"