Conference Proceeding
Refine
Year of publication
- 2024 (18)
- 2023 (38)
- 2022 (49)
- 2021 (52)
- 2020 (55)
- 2019 (94)
- 2018 (78)
- 2017 (87)
- 2016 (81)
- 2015 (92)
- 2014 (68)
- 2013 (77)
- 2012 (89)
- 2011 (76)
- 2010 (100)
- 2009 (86)
- 2008 (61)
- 2007 (67)
- 2006 (95)
- 2005 (37)
- 2004 (37)
- 2003 (40)
- 2002 (34)
- 2001 (23)
- 2000 (19)
- 1999 (17)
- 1998 (23)
- 1997 (12)
- 1996 (7)
- 1995 (6)
- 1994 (4)
- 1993 (11)
- 1992 (6)
- 1991 (3)
- 1990 (2)
- 1989 (6)
- 1988 (3)
- 1987 (1)
- 1986 (2)
- 1985 (5)
- 1984 (3)
- 1983 (3)
- 1981 (2)
- 1980 (1)
- 1979 (1)
- 1978 (3)
- 1977 (2)
- 1975 (3)
- 1974 (1)
- 1973 (3)
Institute
- Fachbereich Elektrotechnik und Informationstechnik (310)
- Fachbereich Energietechnik (263)
- Fachbereich Medizintechnik und Technomathematik (253)
- Fachbereich Luft- und Raumfahrttechnik (214)
- Fachbereich Maschinenbau und Mechatronik (210)
- Solar-Institut Jülich (167)
- IfB - Institut für Bioengineering (155)
- Fachbereich Bauingenieurwesen (139)
- Fachbereich Wirtschaftswissenschaften (75)
- ECSM European Center for Sustainable Mobility (62)
Language
- English (1197)
- German (483)
- Italian (1)
- Multiple languages (1)
- Spanish (1)
Document Type
- Conference Proceeding (1683) (remove)
Keywords
- Biosensor (25)
- Blitzschutz (15)
- CAD (11)
- Finite-Elemente-Methode (11)
- civil engineering (11)
- Bauingenieurwesen (10)
- Lightning protection (9)
- Einspielen <Werkstoff> (6)
- Telekommunikationsmarkt (6)
- shakedown analysis (6)
Production and distribution of personalized information services employing mass customization
(2003)
Recently, the SHARP Corporation, Japan, has developed the world’s first "Plasma Cluster Ions (PCI)" air purification technology using plasma discharge to generate cluster ions. The new plasma cluster device releases positive and negative ions into the air, which are able to decompose and deactivate harmful airborne substances by chemical reactions. Because cluster ions consist of positive and negative ions that normally exist in the natural world, they are completely harmless and safe to humans. The amount of ozone generated by cluster ions is less than 0.01 ppm, which is significantly less than the 0.05-ppm standard for industrial operations and consumer electronics. This amount, thus, has no harming effects whatsoever on the human body. But particular properties and chemical processes in PCI treatment are still under study. It has been shown that PCI in most cases show strongly pronounced irreversible killing effects in respect of airborne microflora due to free-radical induced reactions and can be considered as a potent technology to disinfect both home, medical and industrial appliances.
Summary and Conclusions PCIs were clearly effective in terms of their antibacterial effects with the strains tested. This efficacy increased with the time the bacteries were exposed to PCIs. The bactericidal action has proved to be irreversible. PCIs were significantly less effective in shadowed areas. PCI exposure caused multiple protein damages as observed in SDS PAGE studies. There was no single but multiple molecular mechanism causing the bacterial death.
Recently, SHARP corporation has developed the world’s first “Plasma Cluster Ions (PCI)” air purification technology, which uses plasma discharge to generate cluster ions. The new plasma cluster device releases into the air positive and negative ions, which are harmless to humans and are able to decompose and deactivate airborne substances by chemical reactions. A lot of phenomenological tests of the PCI air purification technology on microbial cells have been conducted. And, in most cases, it has been shown that PCI demonstrate strongly pronounced killing effect. Although, the particular mechanisms of PCI action are still not evident. We studied variations in resistance to PCI among gram-positive airborne microorganisms, as well as some dose-dependent, spatial, cultural and biochemical properties of PCI action in respect of Staphylococcus spp, Enterococcus spp, Micrococcus spp.
Recently, SHARP corporation has developed the world’s first "Plasma Cluster Ions® (PCI)" air purification technology, which uses plasma discharge to generate cluster ions. The new Plasma Cluster Device releases positive and negative ions into the air, which are harmless to humans and are able to decompose and deactivate airborne substances by chemical reactions. In the past, phenomenological tests on the efficacy of the PCI air purification technology on microbial cells have been conducted. In most cases, it has been shown that PCI demonstrated strongly pronounced killing effects on microorganisms. However, the particular mechanisms of PCI action still have to be uncovered.
Mechanical stimulation of the cells resulted in evident changes in the cell morphology, protein composition and gene expression. Microscopically, additional formation of stress fibers accompanied by cell re-arrangements in a monolayer was observed. Also, significant activation of p53 gene was revealed as compared to control. Interestingly, the use of CellTech membrane coating induced cell death after mechanical stress had been applied. Such an effect was not detected when fibronectin had been used as an adhesion substrate.
The sorption of LPS toxic shock by nanoparticles on base of carbonized vegetable raw materials
(2008)
Immobilization of lactobacillus on high temperature carbonizated vegetable raw material (rice husk, grape stones) increases their physiological activity and the quantity of the antibacterial metabolits, that consequently lead to increase of the antagonistic activity of lactobacillus. It is implies that the use of the nanosorbents for the attachment of the probiotical microorganisms are highly perspective for decision the important problems, such as the probiotical preparations delivery to the right address and their attachment to intestines mucosa with the following detoxication of gastro-intestinal tract and the normalization of it’s microecology. Besides that, thus, the received carbonizated nanoparticles have peculiar properties – ability to sorption of LPS toxical shock and, hence, to the detoxication of LPS.
A melting probe equipped with autofluorescence-based detection system combined with a light scattering unit, and, optionally, with a microarray chip would be ideally suited to probe icy environments like Europa’s ice layer as well as the polar ice layers of Earth and Mars for recent and extinct live.
As a deduction from these results, we can conclude that proteins mainly in vitro, denaturate totally at a temperature between 57°C -62°C, and they also affected by NO and different ions types. In which mainly, NO cause earlier protein denaturation, which means that, NO has a destabilizing effect on proteins, and also different ions will alter the protein denaturation in which, some ions will cause earlier protein denaturation while others not.
The absence of a general method for endotoxin removal from liquid interfaces gives an opportunity to find new methods and materials to overcome this gap. Activated nanostructured carbon is a promising material that showed good adsorption properties due to its vast pore network and high surface area. The aim of this study is to find the adsorption rates for a carboneous material produced at different temperatures, as well as to reveal possible differences between the performance of the material for each of the adsorbates used during the study (hemoglobin, serum albumin and lipopolysaccharide, LPS).
One of interesting but not well known water properties is related to appearance of highly ordered structures in response to strong electrical field. In 1893 Sir William Armstrong placed a cotton thread between two wine glasses filled with chemically pure water. When high DC voltage was applied between the glasses, a connection consisting of water formed, producing a "water bridge"
We present the novel concept of a combined drilling and melting probe for subsurface ice research. This probe, named “IceMole”, is currently developed, built, and tested at the FH Aachen University of Applied Sciences’ Astronautical Laboratory. Here, we describe its first prototype design and report the results of its field tests on the Swiss Morteratsch glacier. Although the IceMole design is currently adapted to terrestrial glaciers and ice shields, it may later be modified for the subsurface in-situ investigation of extraterrestrial ice, e.g., on Mars, Europa, and Enceladus. If life exists on those bodies, it may be present in the ice (as life can also be found in the deep ice of Earth).
Tests with palm tree leaves have just started yet and scan data are in the process to be analyzed. The final goal of future project for palm tree gender and species recognition will be to develop optical scanning technology to be applied to date palm tree leaves for in–situ screening purposes. Depending on the software used and the particular requirements of the users the technology potentially shall be able to identify palm tree diseases, palm tree gender, and species of young date palm trees by scanning leaves.
The ”IceMole“ is a novel maneuverable subsurface ice probe for clean in-situ analysis and sampling of subsurface ice and subglacial water/brine. It is developed and build at FH Aachen University of Applied Sciences’ Astronautical Laboratory. A first prototype was successfully tested on the Swiss Morteratsch glacier in 2010. Clean sampling is achieved with a hollow ice screw (as it is used in mountaineering) at the tip of the probe. Maneuverability is achieved with a differentially heated melting head. Funded by the German Space Agency (DLR), a consortium led by FH Aachen currently develops a much more advanced IceMole probe, which includes a sophisticated system for obstacle avoidance, target detection, and navigation in the ice. We intend to use this probe for taking clean samples of subglacial brine at the Blood Falls (McMurdo Dry Valleys, East Antarctica) for chemical and microbiological analysis. In our conference contribution, we 1) describe the IceMole design, 2) report the results of the field tests of the first prototype on the Morteratsch glacier, 3) discuss the probe’s potential for the clean in-situ analysis and sampling of subsurface ice and subglacial liquids, and 4) outline the way ahead in the development of this technology.
Mit freundlicher Genehmigung der Autoren und des Oldenbourg Industrieverlags https://www.oldenbourg-industrieverlag.de/de/9783835633223-33223 erschienen als Beitrag im Tagungsband zur AALE-Tagung 2012. 9. Fachkonferenz 4.-5. Mai 2012, Aachen, Fachhochschule. ISBN 9783835633223 S 5-1 S. 127-135 Es werden Ergebnisse unterschiedlicher Projekte aus dem Bereich der Simulation von Wärmeübertragungsprozessen mit Excel-VBA vorgestellt. - Thermische Behandlung hochviskoser Fruchtzubereitungen, verschiedene Projekte und Kooperationen mit der Zentis GmbH & Co. KG, Aachen (J. Becker, U. Feuerriegel, G. Wersch). - Untersuchung des dynamischen Verhaltens von dampfbeheizten Ethylen-Verdampfern. Projekt mit der TGE Gas Engineering GmbH, Bonn (M. Ecker, U. Feuerriegel, U. Hoffmann, S. Wittenhorst). - Dynamische Simulation des axialen Temperaturverlaufs von elektrisch beheizten Rohrreaktoren. Kooperation mit dem Institut für Chemische Verfahrenstechnik, TU Clausthal (U. Feuerriegel, U. Kunz, M. Pook, S. Wittenhorst).
Pandaboard, TurtleBot, Kinect und Co. : Low-Cost Hardware im Lehreinsatz für die mobile Robotik.
(2012)
Mit freundlicher Genehmigung der Autoren und des Oldenbourg Industrieverlags https://www.oldenbourg-industrieverlag.de/de/9783835633223-33223 erschienen als Beitrag im Tagungsband zur AALE-Tagung 2012. 9. Fachkonferenz 4.-5. Mai 2012, Aachen, Fachhochschule. ISBN 9783835633223 S 8-1 S. 229-238 Original-Abstract des Autors: "Die mobile Robotik wird durch den Einsatz von Low-Cost Hardware einem breiten Publikum zugänglich. Bis vor kurzem basierte eine erschwingliche Hardware meist auf Mikrocontrollern mit den entsprechenden Leistungseinschränkungen z.B. im Bereich der Bildverarbeitung. Die Wahrnehmung einer 3D-Umgebung und somit die Möglichkeit zur autonomen Navigation wurde mit relativ kostenintensiver Hardware, z.B. Stereo-Vision-Systemen und Laserscannern gelöst. Die zur Auswertung der Sensorik notwendige Rechenleistung stand - entweder aufgrund des Stromverbrauchs oder der Performance meist für mobile Plattformen (lokal) - nicht zur Verfügung. Durch Einsatz von leistungsfähigen Prozessoren aus dem Bereich der Mobilgeräte (Smartphones, Tablets) und neuartigen Sensoren des Consumer-Bereichs, wie der Kinect, können mobile Roboter kostengünstig für den Einsatz in der Lehre aufgebaut werden.
Mit freundlicher Genehmigung der Autoren und des Oldenbourg Industrieverlags https://www.oldenbourg-industrieverlag.de/de/9783835633223-33223 erschienen als Beitrag im Tagungsband zur AALE-Tagung 2012. 9. Fachkonferenz 4.-5. Mai 2012, Aachen, Fachhochschule. ISBN 9783835633223 S 6-2. S. 165-174 Zusammenfassung der Autoren: "Abschließend kann festgehalten werden, dass die gesamten durchgeführten Überlegungen von den Messergebnissen der Inbetriebnahme positiv bestätigt werden. Es wird durch diese Topologie eine maximale Systemverfügbarkeit garantiert und die Zellen werden optimal betrieben. Ein Blick in die Zukunft für dieses Projekt zeigt viele Erweiterungs- und Optimierungsaufgaben. So muss der DC/DC-Wandler für einen bidirektionalen Betrieb erweitert werden, um einen Rekuperationsbetrieb zu gewährleisten bzw. die Zellen laden zu können. Dadurch können gleichzeitig die Gleichrichterdioden im Sekundärleistungsteil durch IGBTs oder MOSFETs ersetzt werden. Die voll funktionsfähige Version des DC/DC-Wandlers könnte höchstwahrscheinlich direkt auf die Anschlusspole der Zelle montiert werden, wodurch das Gewicht gesenkt wird. Durch die verringerte Verlustleistung in den Zuleitungen könnte der Wirkungsgrad noch einmal gesteigert werden.
Mit freundlicher Genehmigung der Autoren und des Oldenbourg Industrieverlags https://www.oldenbourg-industrieverlag.de/de/9783835633223-33223 erschienen als Beitrag im Tagungsband zur AALE-Tagung 2012. 9. Fachkonferenz 4.-5. Mai 2012, Aachen, Fachhochschule. ISBN 9783835633223 S 2-1 S. 37-46 Original-Abstract der Autoren: "Dieser Artikel beschreibt eine universelle Programmierschnittstelle zur Entwicklung von Motion-Logic Applikationen für industrielle Motion-Controller. Sie ermöglicht die Entwicklung von Software mit modernen Hochsprachen, wie C/C++. Visual Basic, C#, Java, Objective-Cund visuellen Programmiersprachen, wie LabVIEW in Koexistenz mit klassischen Programmiersprachen für speicherprogrammierbare Steuerungen nach IEC 61131-3. Daraus ergeben sich neue Möglichkeiten industrielle Antriebs- und Steuerungssysteme mit ihrem IT-Umfeld zu verbinden."
Proceedings of the 2nd Humboldt Kolleg, Hammamet, Tunisia Organizer: Alexander von Humboldt Stiftung, Germany. pdf 184 p. Welcome Address Dear Participants, Welcome to the 2nd Humboldt Kolleg in “Nanoscale Science and Technology” (NS&T’12) in Tunisia, sponsored by the "Alexander von Humboldt" foundation. The NS&T’12 multidisciplinary scientific program includes seven "hot" topics dealing with "Nanoscale Science and Technology" covering basic and application-oriented research as well as industrial (market) aspects: - Molecular Biophyics, Spectroscopy Techniques, Imaging Microscopy - Nanomaterials Synthesis for Medicine and Bio-chemical Sensors - Nanostructures, Semiconductors, Photonics and Nanodevices - New Technologies in Market Industry - Environment, Electro-chemistry, Bio-polymers and Fuel Cells - Nanomaterials, Photovoltaic, Modelling, Quantum Physics - Microelectronics, Sensors Networks and Embedded Systems We are deeply indebted to all members of the Scientific Committee and General Chairs for joint Sessions and to all speakers and chairmen, who have dedicated invaluable time and efforts for the realization of this event. On behalf of the Organizing Committee, we are cordially inviting you to join the conference and hope that your stay will be fruitful, rewarding and enjoyable. Prof. Dr. Michael J. Schöning, Prof. Dr. Adnane Abdelghani
Summary: This paper presents a methodology to study and understand the mechanics of stapled anastomotic behaviors by combining empirical experimentation and finite element analysis. Performance of stapled anastomosis is studied in terms of leakage and numerical results which are compared to in vitro experiments performed on fresh porcine tissue. Results suggest that leaks occur between the tissue and staple legs penetrating through the tissue.
Inhaltsverzeichnis: 4 Grußwort des Dekans [Prof. Dr.-Ing. Jürgen Kettern] 4 Grußwort des Sektionsleiters "Bau" des alfha.net [Dipl.-Ing. Walter Kleiker] 5 Referenten 10 Referate 10 Die Statik bleibt dynamisch ... : Beispiele der Schwingungsanfälligkeit von Brücken, Türmen und erdbebengefährdeten Gebäuden / Dipl.-Ing. Sebastian Gokus 12 Bau einer Biogasanlage / Dipl.-Ing. Michaela Schneider 16 Die neue Landmarke an der A4 / Dipl.-Ing. Franz-Josef Türck-Hövener 18 Technical Due Diligence Real Estate : Technische Immobilienbewertung zur Vorbereitung einer Immobilientransaktion - Eine Teilanalyse von Chancen und Risiken im Due Diligence Prozess / Dipl.-Ing. Architektin Ebru Baykal M.Eng. 20 Die Deutsche Botschaft Kabul wird saniert / Dipl.-Ing. Stefanie Milde 24 Abfluss- und Strukturverbesserung am Niederrhein : Ein hydraulischer Ansatz zur Vereinbarkeit von Hochwasserschutz und Strukturverbesserung / Dr.-Ing. Gesa Kutschera 26 Um- und Ausbau des Autobahnkreuzes Aachen / Dipl.-Ing. Dirk Gobbelé 30 Textilbewehrter Beton in Großprojekten am Beispiel einer Fußgängerbrücke / Dipl.-Ing. Andre Nacken 32 Kalkulation in der Bauindustrie / Dipl.-Ing. Alexander Spix 34 Phoenix-See Dortmund : Standort für die Zukunft / Dipl,-Ing. Stephan Bendel ; Dipl.-Ing. Sebastian Nyßen 38 alfha.net - Ein Verein stellt sich vor 39 Impressum
Doktoranden der FH Aachen stellen ihre wissenschaftlichen Arbeiten aus verschiedenen Fachdisziplinen vor.
Abstract of the authors: In many areas of computer science ontologies become more and more important. The use of ontologies for domain modeling often brings up the issue of ontology integration. The task of merging several ontologies, covering specific subdomains, into one united ontology has to be solved. Many approaches for ontology integration aim at automating the process of ontology alignment. However, a complete automation is not feasible, and user interaction is always required. Nevertheless, most ontology integration tools offer only very limited support for the interactive part of the integration process. In this paper, we present a novel approach for the interactive integration of ontologies. The result of the ontology integration is incrementally updated after each definition of a correspondence between ontology elements. The user is guided through the ontologies to be integrated. By restricting the possible user actions, the integrity of all defined correspondences is ensured by the tool we developed. We evaluated our tool by integrating different regulations concerning building design.
In: Proc. of the 11th Intl. Conf. on Computing in Civil and Building Engineering (ICCCBE-XI) ed. Hugues Rivard, Montreal, Canada, Seite 1-12, ACSE (CD-ROM), 2006 Currently, the conceptual design phase is not adequately supported by any CAD tool. Neither the support while elaborating conceptual sketches, nor the automatic proof of correctness with respect to effective restrictions is currently provided by any commercial tool. To enable domain experts to store the common as well as their personal domain knowledge, we develop a visual language for knowledge formalization. In this paper, a major extension to the already existing concepts is introduced. The possibility to define rule dependencies extends the expressiveness of the knowledge definition language and contributes to the usability of our approach.
In: Proceedings of the 39th Annual Hawaii International Conference on System Sciences, 2006. HICSS '06 http://dx.doi.org/10.1109/HICSS.2006.200 The conceptual design phase at the beginning of the building construction process is not adequately supported by any CAD-tool. Conceptual design support needs regarding two aspects: first, the architect must be able to develop conceptual sketches that provide abstraction from constructive details. Second, conceptually relevant knowledge should be available to check these conceptual sketches. The paper deals with knowledge to formalize for conceptual design. To enable domain experts formalizing knowledge, a graph-based specification is presented that allows the development of a domain ontology and design rules specific for one class of buildings at runtime. The provided tool support illustrates the introduced concepts and demonstrates the consistency analysis between knowledge and conceptual design.
In: Forum Bauinformatik 2005 : junge Wissenschaftler forschen / [Lehrstuhl Bauinformatik, Brandenburgische Technische Universität Cottbus. Frank Schley ... (Hrsg.)]. - Cottbus : Techn. Universität 2005. S. 1-10 ISBN 3-934934-11-0
Mittels eines operationalen Ansatzes zur Semantikdefinition wird am Bei-spiel des konzeptuellen Gebäudeentwurfs ein Regelsystem formalisiert. Dazu werdenzwei Teile, zum einen das Regelwissen, zum anderen ein konzeptueller Entwurfsplan zunächst informell eingeführt und dann formal beschrieben. Darauf aufbauend wird die Grundlage für eine Konsistenzprüfung des konzeptuellen Entwurfs gegen das Regel-wissen formal angeben
Proc. of the 2005 ASCE Intl. Conf. on Computing in Civil Engineering (ICCC 2005) eds. L. Soibelman und F. Pena-Mora, Seite 1-14, ASCE (CD-ROM), Cancun, Mexico, 2005 Current CAD tools are not able to support the fundamental conceptual design phase, and none of them provides consistency analyses of sketches produced by architects. To give architects a greater support at the conceptual design phase, we develop a CAD tool for conceptual design and a knowledge specification tool allowing the definition of conceptually relevant knowledge. The knowledge is specific to one class of buildings and can be reused. Based on a dynamic knowledge model, different types of design rules formalize the knowledge in a graph-based realization. An expressive visual language provides a user-friendly, human readable representation. Finally, consistency analyses enable conceptual designs to be checked against this defined knowledge. In this paper we concentrate on the knowledge specification part of our project.
In: Computer Aided Architectural Design Futures 2005 2005, Part 4, 207-216, DOI: http://dx.doi.org/10.1007/1-4020-3698-1_19 The conceptual design at the beginning of the building construction process is essential for the success of a building project. Even if some CAD tools allow elaborating conceptual sketches, they rather focus on the shape of the building elements and not on their functionality. We introduce semantic roomobjects and roomlinks, by way of example to the CAD tool ArchiCAD. These extensions provide a basis for specifying the organisation and functionality of a building and free architects being forced to directly produce detailed constructive sketches. Furthermore, we introduce consistency analyses of the conceptual sketch, based on an ontology containing conceptual relevant knowledge, specific to one class of buildings.
IASSE-2004 - 13th International Conference on Intelligent and Adaptive Systems and Software Engineering eds. W. Dosch, N. Debnath, pp. 245-250, ISCA, Cary, NC, 1-3 July 2004, Nice, France We introduce a UML-based model for conceptual design support in civil engineering. Therefore, we identify required extensions to standard UML. Class diagrams are used for elaborating building typespecific knowledge: Object diagrams, implicitly contained in the architect’s sketch, are validated against the defined knowledge. To enable the use of industrial, domain-specific tools, we provide an integrated conceptual design extension. The developed tool support is based on graph rewriting. With our approach architects are enabled to deal with semantic objects during early design phase, assisted by incremental consistency checks.
In: Net-distributed Co-operation : Xth International Conference on Computing in Civil and Building Engineering, Weimar, June 02 - 04, 2004 ; proceedings / [ed. by Karl Beuke ...] . - Weimar: Bauhaus-Univ. Weimar 2004. - 1. Aufl. . Seite 1-14 ISBN 3-86068-213-X International Conference on Computing in Civil and Building Engineering <10, 2004, Weimar> Summary In our project, we develop new tools for the conceptual design phase. During conceptual design, the coarse functionality and organization of a building is more important than a detailed worked out construction. We identify two roles, first the knowledge engineer who is responsible for knowledge definition and maintenance; second the architect who elaborates the conceptual de-sign. The tool for the knowledge engineer is based on graph technology, it is specified using PROGRES and the UPGRADE framework. The tools for the architect are integrated to the in-dustrial CAD tool ArchiCAD. Consistency between knowledge and conceptual design is en-sured by the constraint checker, another extension to ArchiCAD.
ITCE-2003 - 4th Joint Symposium on Information Technology in Civil Engineering ed Flood, I., Seite 1-12, ASCE (CD-ROM), Nashville, USA In this paper we discussed graph based tools to support architects during the conceptual design phase. Conceptual Design is defined before constructive design; the used concepts are more abstract. We develop two graph based approaches, a topdown using the graph rewriting system PROGRES and a more industrially oriented approach, where we extend the CAD system ArchiCAD. In both approaches, knowledge can be defined by a knowledge engineer, in the top-down approach in the domain model graph, in the bottom-up approach in the in an XML file. The defined knowledge is used to incrementally check the sketch and to inform the architect about violations of the defined knowledge. Our goal is to discover design error as soon as possible and to support the architect to design buildings with consideration of conceptual knowledge.
Applications of Graph Transformations with Industrial Relevance Lecture Notes in Computer Science, 2004, Volume 3062/2004, 434-439, DOI: http://dx.doi.org/10.1007/978-3-540-25959-6_33 This paper gives a brief overview of the tools we have developed to support conceptual design in civil engineering. Based on the UPGRADE framework, two applications, one for the knowledge engineer and another for architects allow to store domain specific knowledge and to use this knowledge during conceptual design. Consistency analyses check the design against the defined knowledge and inform the architect if rules are violated.
Applications of Graph Transformations with Industrial Relevance Lecture Notes in Computer Science, 2004, Volume 3062/2004, 90-105, DOI: 10.1007/978-3-540-25959-6_7 In this paper we discuss how tools for conceptual design in civil engineering can be developed using graph transformation specifications. These tools consist of three parts: (a) for elaborating specific conceptual knowledge (knowledge engineer), (b) for working out conceptual design results (architect), and (c) automatic consistency analyses which guarantee that design results are consistent with the underlying specific conceptual knowledge. For the realization of such tools we use a machinery based on graph transformations. In a traditional PROGRES tool specification the conceptual knowledge for a class of buildings is hard-wired within the specification. This is not appropriate for the experimentation platform approach we present in this paper, as objects and relations for conceptual knowledge are due to many changes, implied by evaluation of their use and corresponding improvements. Therefore, we introduce a parametric specification method with the following characteristics: (1) The underlying specific knowledge for a class of buildings is not fixed. Instead, it is built up as a data base by using the knowledge tools. (2) The specification for the architect tools also does not incorporate specific conceptual knowledge. (3) An incremental checker guarantees whether a design result is consistent with the current state of the underlying conceptual knowledge (data base).
WS GTaD-2003 - The 1st Workshop on Graph Transformations and Design ed Grabska, E., Seite 6-7, Jagiellonian University Krakow. 2 pages
In: Advances in intelligent computing in engineering : proceedings of the 9.International EG-ICE Workshop ; Darmstadt, (01 - 03 August) 2002 / Martina Schnellenbach-Held ... (eds.) . - Düsseldorf: VDI-Verl., 2002 .- Fortschritt-Berichte VDI, Reihe 4, Bauingenieurwesen ; 180 ; S. 1-35 The paper describes a novel way to support conceptual design in civil engineering. The designer uses semantical tools guaranteeing certain internal structures of the design result but also the fulfillment of various constraints. Two different approaches and corresponding tools are discussed: (a) Visually specified tools with automatic code generation to determine a design structure as well as fixing various constraints a design has to obey. These tools are also valuable for design knowledge specialist. (b) Extensions of existing CAD tools to provide semantical knowledge to be used by an architect. It is sketched how these different tools can be combined in the future. The main part of the paper discusses the concepts and realization of two prototypes following the two above approaches. The paper especially discusses that specific graphs and the specification of their structure are useful for both tool realization projects.
Working paper distributed at 2nd Annual Next Generation Telecommunications Conference 2009, 13th – 14th October 2009, Brussels 14 pages Abstract Governments all over Europe are in the process of adopting new broadband strategies. The objective is to create modern telecommunications networks based on powerful broadband infrastructures". In doing so, they aim for innovative and investment-friendly concepts. For instance, in a recently published consultation paper on the subject the German regulator BNetzA declared that it will take “greater account of … reducing risks, securing the investment and innovation power, providing planning certainty and transparency – in order to support and advance broadband rollout in Germany”. It further states that when regulating wholesale rates it has to be ensured that “… adequate incentives for network rollout are provided on the one hand, while sustainable and fair competition is ensured on the other”. Also an EC draft recommendation on regulated network access is about to set new standards for the regulation of next generation access networks. According to the recommendation the prices of new assets shall be based on costs plus a projectspecific risk premium to be included in the costs of capital for the investment risk incurred by the operator. This approach has been criticised from various sides. In particular it has been questioned whether such an approach is adequate to meet the objectives of encouraging both competition and investment into next generation access networks. Against this background, the concept of “long term risk sharing contracts” has been proposed recently as an approach which does not only incorporate the various additional risks involved in the deployment of NGA infrastructure, but has several other advantages. This paper will demonstrate that the concept allows for competition to evolve at both the retail and wholesale level on fair, objective, non-discriminatory and transparent terms and conditions. Moreover, it ensures the highest possible investment incentive in line with socially desirable outcome. The paper is organised as follows: The next section will briefly outline the importance of encouraging competition and investment in an NGA-environment. The third section will specify the design of long term risk sharing contracts in view of achieving these objectives. The fourth section will examine potential problems associated with the concept. In doing so a way of how to deal with them will be elaborated. The last section will look at arguments against long term risk sharing contracts. It will be shown that these arguments are not strong enough to build a case against introducing such contracts.
The ANM’09 multi-disciplinary scientific program includes topics in the fields of "Nanotechnology and Microelectronics" ranging from "Bio/Micro/Nano Materials and Interfacing" aspects, "Chemical and Bio-Sensors", "Magnetic and Superconducting Devices", "MEMS and Microfluidics" over "Theoretical Aspects, Methods and Modelling" up to the important bridging "Academics meet Industry".
8. VDE/ABB-Blitzschutztagung, 29. - 30. Oktober 2009 in Neu-Ulm. Blitzschutztagung <8, 2009, Neu-Ulm> Berlin : VDE Verl. 2009 Großkraftwerke können durch Blitzentladungen mit potentiellen Auswirkungen auf deren Verfügbarkeit und Sicherheit gefährdet werden. Ein sehr spezielles Szenario, welches aus aktuellem Anlass zu untersuchen war, betrifft den kraftwerksnahen Blitzeinschlag in die Hochspannungs-Freileitung am Netzanschluss der Anlage. Wird nun noch ein sogenannter Schirmfehler unterstellt, d.h. der direkte Blitzeinschlag erfolgt in ein Leiterseil des Hoch- bzw. Höchstspannungsnetzes und nicht in das darüber gespannte Erdseil, so bedeutet dies eine extreme elektromagnetische Einwirkung. Der vorliegende Beitrag befasst sich mit der Simulation eines solchen Blitzeinschlages und dessen Auswirkungen auf den Netzanschluss und die Komponenten der elektrischen Eigenbedarfsanlagen eines Kraftwerks auf den unterlagerten Spannungsebenen. Die dabei gewonnenen Erkenntnisse lassen sich ohne Einschränkungen auf Industrieanlagen mit Mittelspannungs-Netzanschluss und ohne eigener Stromversorgung übertragen.
[Paper of the X International Symposium on Lightning Protection 9th - 13th November, 2009 - Curitiba, Brazil. 6 pages] The international standard IEC 62305-3, published in 2006, requires as an integral part of the lightning protection system (LPS) the consideration of a separation distance between the conductors of the LPS and metal and electrical installations inside the structure to be protected. IEC 62305-3 gives two different methods for this calculation: a standard, simplified approach and a more detailed approach, which differ especially regarding the treatment of the current sharing effect on the LPS conductors. Hence, different results for the separation distance are possible, leading to some discrepancies in the use of the standard. The standard approach defined in the main part (Clause 6.3) and in Annex C of the standard in some cases may lead to a severe oversizing of the required separation distance. The detailed approach described in Annex E naturally gives more correct results. However, a calculation of the current sharing amongst all parts of the air-termination and downconductor network is necessary, in many cases requiring the use of network analysis programs. In this paper simplified methods for the assessment of the current sharing are presented, which are easy to use as well as sufficiently adequate.
The propagation of mechanical waves in plates of isotropic elastic material is investigated. After a short introduction to the understanding of focussing of stress waves in a plate with a curved boundary the method of characteristics is applied to a plate of hyperelastic material. Using this method the propagation of acceleration waves is discussed. Based on this a numerical difference scheme is developed for solving initial-boundary-value problems and applied to two examples: propagation of a point disturbance in a homogeneously finitely strained non-linear elastic plate and geometrical focussing in al linear elastic plate.
In the presented paper data collected from the field related to damage statistics of electrical and electronic apparatus in household are reported and investigated. These damages (total number approx. 74000 cases), registered by five German insurance companies in 2005 and 2006, were adviced by customers as caused by lightning overvoltages. With the use of stochastical methods it is possible, to reasses the collected data and to distinguish between cases, which are with high probability caused by lightning overvoltages, and those, which are not. If there was an indication for a direct strike, this case was excluded, so the focus was only on indirect lightning flashes, i.e. only flashes to ground near the structure and flashes to or nearby an incoming service line were investigated. The data from the field contain the location of damaged apparatus (residence of the policy holder) and the distances of the nearest cloud-to-ground stroke to the location of the damage registered by the German lightning location network BLIDS at the date of damage. The statistical data along with some complementary numerical simulations allow to verify the correspondence of the Standards rules used for IEC 62305-2 with the field data and to define some correction needs. The results could lead to a better understanding whether a damage reported to an insurance company is really caused by indirect lightning, or not.
Inhaltsverzeichnis: Kettern, Jürgen : Grußwort des Dekans Kleiker, Walter : Grußwort des Sektionsleiters Bau des alpha.net Wijnhoven, Ralf : Bauausführung von 14 Brunnenanlagen und 4 km Rohrleitung zur Regelung des Grundwasserstandes und der Vorflut in Voerde-Mehrum. S. 10-11 Ruwisch, Thomas : Spurplanänderung im Bahnhof Düsseldorf-Gerresheim : Wusch, Planung, Planrecht und die Umwelt. S. 12-13. Rickes, Tanja : Bauablaufsteuerung einer Linienbaustelle am Beispiel des Fahrbahnbaus der "HSL-Zuid". S. 14-15. Plum, Andreas : Brandschutzingenieurwesen - Eine Ingenieurdisziplim hat die Akzeptanzschwelle überschritten. Teil 1: Brandsimulationsberechnung. S. 18-19 Flesch, Tobias : Brandschutzingenieurwesen - Eine Ingenieurdisziplin hat die Akzeptanzschwelle überschritten. Teil 2: Tragwerksbemessung im Brandfall. S. 20-21. Müller, Bert : Neubau für die Mediengruppe RTL-Deutschland - High-Tech in dankmalgeschützter Fassade. S. 24-25. Hermens, Gereon : Erhöhung der Akzeptanz von Wasserkraft durch den Bau von Fischaufstiegsanlagen: Umweltschonende Energie für Natur und Klima. S. 26-27 Klitzing, Bastian : Kläranlagenoptimierung : Zukunftsweisende Planungen im Bereich Abwasserreinigung und Energiegewinnung. S. 28-29. Ginster, Marco : Die neue Rheinbrücke Wesel. S. 32-33 Tilke, Hermann ; Wersch, Ralf van : Bauen für einen schnellen Sport. S. 34-35.
Die ökologische Umgestaltung der Dhünn in Leverkusen – Ein Beispiel für die praktische Planung
(2009)
Dipl.-Ing. (FH) Dieter Stein M.Sc (Environmental Engineering) - Landschaftsarchitekt AKNW, Grevenbroich. 14 Seiten ( S. 78-91). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen>. Zusammenfassung [des Autors] Unter Berücksichtigung vorhandener örtlicher Gegebenheiten und technischer Einrichtungen (wie z.B. Verkehrstrassen, Versorgungsleitungen, Einlaufbauwerke etc.) hat die Dhünn innerhalb der Deiche mehr Bewegungsfreiheit erhalten. Der Hochwasserschutz bleibt dabei weiterhin gewährleistet. Die Gehölzstrukturen im Uferbereich wurden weitgehend erhalten. Dort, wo die Bauarbeiten eine Entfernung von Gehölzen erforderlich machten, wurden die Flächen bewusst einer eigenständigen Entwicklung überlassen. In diesen Bereichen werden sich im Laufe der Zeit von selbst neue Pflanzen und Gehölze ansiedeln. Mit der naturnahen Umgestaltung der Dhünn als "Starthilfe" kann die Natur die weitere Entwicklung übernehmen: Tier- und Pflanzenarten können sich das ehemals kanalartig ausgebaute Gewässer "zurückerobern", Fische und Kleintiere finden Nahrung und Ruheplätze. Für die Menschen entsteht ein wertvoller Erholungsraum mitten in der Stadt. Trotz zahlreicher Akteure und erheblicher Restriktionen konnte das Projekt in relativ kurzer Zeit realisiert werden. Dem Wupperverband (Untere Lichtenplatzer Str. 100; 42289 Wuppertal) und hier vor allem den Projektleitern Herrn Arnim Lützenberger und Herrn Andreas Oberborbeck sei an dieser Stelle besonders für eine hervorragende Zusammenarbeit gedankt.
Dipl.-Ing. Hartmut Hoevel - Erftverband, Bergheim. 3 Seiten (S. 75-77). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Die Erft ist ein linker Nebenfluss des Rheins. Der Fluss ist durch eingeleitetes Sümpfungswasser aus dem rheinischen Braunkohletagebau hinsichtlich der Wassermenge und der Temperatur stark belastet. Die vorgestellten Überlegungen betreffen die Fragen: 1. Wie soll die Erft im Jahr 2045, also nach dem voraussichtlichen Ende der Tagebauaktivitäten im Rheinischen Braunkohlerevier und damit einhergehender Beenigung der Sümpfungswassereinleitung, aussehen? 2. Wie schnell und auf welche Weise soll die Umgestaltung der Erft vonstatten gehen?
Mischwassereinleitungen in Gewässer nach BWK Merkblatt M3 - Vorteile des detaillierten Nachweises
(2009)
Dipl.-Ing. Brigitte Huber und Dr.-Ing. Gerd Demny - Wasserverband Eifel Rur, Düren. 16 Seiten ( S. 59-74). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Zusammenfassung [der Autoren] Für das städtisch geprägte Einzugsgebiet des Broicher Baches sind ein vereinfachter und ein detaillierter Nachweis nach BWK-M3 durchgeführt worden. Dabei zeigt sich, dass die Methodik des vereinfachten Nachweises nicht geeignet ist, um eine realitätsnahe Abbildung der einleitungsgeprägten Abflüsse des Gewässers zu erhalten. Dies ist insbesondere auf die Vernachlässigung von Wellentranslation und -retention im Gerinne zurückzuführen. Die dadurch entstehende Fehleinschätzung der Abflussverhältnisse versperrt den Blick auf eine situationsgerechte Maßnahmenplanung. Der mit Hilfe eines NA-Modells geführte detaillierte Nachweis ist zwar in der Erstellung aufwändiger, zeichnet aber ein reales Bild der Abflusserhöhung durch Einleitungen. Mit Hilfe des Modells können die wesentlichen Einflüsse schnell lokalisiert und zielführende Maßnahmenvarianten identifiziert werden. In dem hier vorgestellten Beispiel des Broicher Baches können die ursprünglich identifizierten acht Maßnahmen auf eine reduziert werden. Das Gesamtvolumen der erforderlichen Rückhaltungen wird um die Hälfte verringert. Der Vergleich beider Nachweismethoden legt nach Ansicht der Autoren nahe, den vereinfachten Nachweis höchstens für eine erste Einschätzung des Maßnahmenbedarfs anzuwenden. Die Maßnahmenidentifikation und -dimensionierung sollte grundsätzlich mit der detaillierten Nachweismethode durchgeführt werden, die auf einem entsprechenden NA-Modell basiert. Dies gilt insbesondere für Gewässerstrecken, deren Abfluss durch mehrere, hintereinander liegende Einleitungsstellen geprägt ist.
Dr.-Ing. Oliver Stoschek [u.a.] DHI Wasser und Umwelt GmbH, Syke. 14 S. (S. 45-58). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Ökologische Modelle zur Berechnung der Temperaturveränderung und den Einfluss von Kühlwasser auf die Wassertemperatur der Elbe. Die vorgelegte Arbeit wurde beauftragt und unterstützt von der ARGE Elbe im Zuge der Neuauflage des Wärmelastplans Elbe.
Dipl.-Ing. Stefan Overkamp - GISWORKS GbR, Velbert. 11 S. (S. 7-17). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Aus der Gliederung: 1 Geoinformationssysteme 2 Anforderungen an eine kommunale Geodateninfrastruktur (GDI) 3 Komponenten einer GDI 3.1 Geodatenmanagement 3.2 Geodatenhaltung 3.3 High-End-GIS 3.4 intraGIS 4 GISWORKS 5 Weiterführende Informationen
Dr.-Ing. Martin Wolf ; Dipl.-Kaufm. Daniel Ulbrich , Dr. Pecher und Partner Ingenieurgesellschaft mbH, München. 31 S. (S. 139-168). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft < 1, 2007, Aachen>. Zusammenfasung [der Autoren] Die öffentlichen Kanalnetze Deutschlands stellen mit einem Wert von rd. 330 Mrd. € ein enormes Anlagevermögen dar. Auf Grund des oft schlechten Zustandes und geringer Ausgaben zur Instandhaltung und Erneuerung ist zu erwarten, dass durch die gegenwärtige Sanierungspraxis eher ein Substanzwertverzehr des Kanalnetzes als ein Substanzwerterhalt im Sinne des Generationenvertrages erzielt wird. Für einen nachhaltigen Betrieb und Erhalt der Kanalnetze sind deshalb Sanierungsstrategien erforderlich, die neben den technischen und gesetzlichen Anforderungen auch den mittel- und langfristigen Substanzwertverlauf berücksichtigen. Dieser wird beeinflusst vom erforderlichen oder durchgeführten Sanierungsumfang, Art und Zusammensetzung der ausgewählten Maßnahmen sowie der zeitlichen Abfolge der Sanierungsmaßnahmen. Erheblichen Einfluss auf den Substanzwertverlauf hat zudem die Berücksichtigung der hydraulischen Verhältnisse sowie der optisch nicht sichtbaren Undichtheiten. Entsprechend ist es erforderlich, die tatsächlich vorhandenen Defizite zu ermitteln und die Sanierungsmaßnahmen sowie eine Strategie zur Umsetzung zu erarbeiten. Da sich gezeigt hat, dass alleine die Einhaltung der technischen und gesetzlichen Anforderung für einen Substanzwerterhalt nicht ausreicht, muss die geplante Strategie im Dr.-Ing. Martin Wolf 139 von 170 Decision-Support-System kokas zur Sanierungsplanung und Strategieentwicklung 1. Aachener Softwaretag in der Wasserwirtschaft Hinblick auf die nachhaltige Wertentwicklung überprüft und ggf. Anpassungen vorgenommen werden. Kurzfristig erzielte Einsparungen durch reduzierten Schadensumfang oder einseitige Maßnahmenwahl ermöglichen zwar im günstigsten Fall, die Anforderungen einzuhalten, gehen jedoch zwangsläufig zu Lasten des Substanzwertes und führen mittel- und langfristig zu einer Verschärfung der Kosten- und Gebührensituation. Der monetäre, am konkreten Sanierungsaufwand orientierte Substanzwertansatz ermöglicht dabei, technische und kaufmännische Gesichtspunkte praxisnah zu verknüpfen und den bestmöglichen Ausgleich zwischen den gegenläufigen Zielen Substanzwerterhalt und Gebührenkonstanz zu finden.
Dipl.Ing. Johann Andorfer , Tandler.com GmbH, Buch a. Erlbach. Abstract zum 1. Aachener Softwaretag in der Wasserwirtschaft <1,2007, Aachen>. 2 S. (S. 136-137) Eine nachhaltige Sicherung der Funktionalität und der ökologischen Verträglichkeit eines mittleren bis großen Kanalnetzes erfordert eine umfassende und detaillierte Modellierung in Raum und Zeit. Um den in den Richtlinien geforderten statistischen Anforderungen gerecht zu werden und die jährlichen Häufigkeiten, Mengen und Zeiträume der Belastungen erwartungstreu abschätzen zu können, ist es zielführend und notwendig, lange Zeiträume und die Gesamtheit der Einzugsgebiete möglichst detailliert zu betrachten. Die hydraulische Funktionalität und Sicherheit soll meistens mit Hilfe zeitsymmetrischer (hydrodynamischer) Verfahren nur durch Betrachtung von Modellregen, allenfalls Regenserien, sichergestellt werden. Für die Abschätzung der jährlich zu erwartenden Emissionen in unsere natürlichen Gewässer mit ihren Mengen, Frequenzen und Dauern werden normalerweise Langzeitsimulationen natürlicher Regenreihen über möglichst große Zeiträume mit zeitasymmetrischen (hydrologischen) Verfahren durchgeführt. Die betrachteten Kanalnetze werden zumeist vereinfacht (Grobnetze), um die Rechenzeiten erträglicher zu gestalten. Wünschenswert wäre jedoch eine allen Anforderungen gerecht werdende wirklichkeitsnahe Modellierung des gesamten Kanalnetzes in all seinen Details, Vermaschungen und Wechselwirkungen (Feinnetz) und dessen zeitsymmetrische und damit verlässliche Simulation mit langjährigen Regenreihen. Bereits vor 15 Jahren wurde im Hause Tandler begonnen, die Berechnungssoftware durch Parallelisierung auf symmetrische Multiprozessortechnologien auszurichten. In neuerer Zeit hält diese Technik durch die Mehrkernprozessoren in normalen Notebooks und PCs Einzug in die Ingenieurbüros und Abwasserbetriebe und sorgt schon für wesentliche Einsparungen an Rechenzeit. Doch erst durch die Kombination der Parallelisierung mit dem Prinzip des verteilten Rechnens (d.h. die Einbeziehung mehrerer PCs eines Netzwerkes in die Berechnung) erhält man die Chance ausreichend Rechenkapazität zur Verfügung zu stellen, um nicht nur eine einzelne Langzeitsimulation eines Feinnetzes durchzuführen, sondern sogar mehrere Sanierungsalternativen zu überprüfen. Die zukunftsweisenden Arbeiten von Dipl. Math. R. Tandler auf diesem Gebiet sind Thema dieses Vortrags.
Dr.-Ing. Raju M. Rohde , Dorsch Consult Wasser und Umwelt GmbH, München mit 32 Folien (S. 103-134). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen>. Das System BaSYS.L.E.O. Ganglinien-Volumen-Methode Hydrodynamische Kanalnetzberechnung Hydraulische Objekte Hydrodynamische Schmutzfrachtberechnung
Das Oberflächenabflussmodell von Keser und die Grenzwertmethode : Die Abflussbildung im Vergleich.
(2007)
Dipl.-Ing. Rudolf Herzog , Rehm Software Berg / Ravensburg. 9 S. (S. 94-102). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft a1, 2007, Aachen>. Zusammenfassung [des Autors] Die grundlegenden Ansätze der beiden Modelle sind ähnlich. Der hauptsächliche Unterschied liegt darin, dass die Grenzwertmethode die Angabe einer Bodenart erfordert, die ihrerseits wieder Probleme verursachen kann. Es kann nicht davon ausgegangen werden, dass die Bodenarten homogen anliegen. Die ersatzweise Vorgabe einer für alle Einzugsgebiete einheitlichen Bodenart hilft da nicht wirklich weiter. Es stellt sich vielmehr die Frage, ob der zusätzliche Aufwand eine signifikante Verbesserung des Ereignisses zur Folge hat. Der Vorteil der Grenzwertmethode liegt auf der Hand: Die Parameterwahl ermöglicht eine flexible Steuerung des Modells, in die Abflussbildung kann differenziert eingegriffen werden. Das NA-Geschehen kann weitgehend kalibriert werden. Es ist allerdings auch zu bedenken, dass die Flexibilität des Modells risikobehaftet ist - die Abflussbildung kann nach Belieben beeinflusst werden. Fazit: Flexibel in der Anwendung, bei NA-Messung empfehlenswert. Im Allgemeinen geringere Abflussmengen als Keser. Die Blackbox von Keser ist zwar nicht steuerbar, entzieht sich damit aber auch Wissensdefiziten und Manipulationseinflüssen. Über Parameter und deren Auswirkungen muss nicht spekuliert werden. Wenn mehrere Personen mit dem Modell von Keser arbeiten, ergeben sich im Gegensatz zur Grenzwertmethode zwangsweise dieselben Ergebnisse - gleiche geometrische Oberflächendaten vorausgesetzt. Außerdem kommt Keser ohne die Bodenart aus. Fazit: Bei BFG >20%, einfache Handhabung, geringer Aufwand. Gegenüber der Grenzwertmethode (mittlere Verhältnisse) jedoch etwas höhere Abflüsse. Das Programmpaket HYKAS der Fa. Rehm Software ermöglicht u.a. den Nachweis von Kanalnetzen und bietet in diesem Zusammenhang beide Modellansätze zur Auswahl an. Der Programmanwender kann damit eine am Datenbestand bzw. an den Vorgaben des Auftraggebers ausgerichtete Modellauswahl treffen. Die realitätsnahe Ermittlung der Oberflächenabflüsse ist kompliziert. Weitere Unwegsamkeiten warten nach der Abflussbildung bei der Abflusskonzentration auf: Es ist z.B. die Festlegung der Fließlänge auf der Oberfläche erforderlich... Es ist noch ein weiter Weg bis zur Kläranlage.
Dipl.-Ing. Ralf Engels - DHI Wasser und Umwelt GmbH, Syke. 24 S. (S. 70-93) Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1,2007, Aachen> Einleitung [des Autors] Die hydrodynamische Kanalnetzmodellierung ist ein Standardwerkzeug für die Bemessung von Kanalnetzen. Neben der Berechnung der hydrologischen und hydraulischen Gegebenheiten in einem städtischen Einzugsgebiet gehören auch weiterführende Technologien mittlerweile zum Standard. So können alle steuerbaren Elemente eines Kanalnetzes dynamisch so optimiert werden, dass die Leistungsfähigkeit des Kanalnetzes zusätzlich gesteigert werden kann. Automatische Werkzeuge zur dynamischen hydraulischen Schmutzfrachtberechnung ermöglichen die Erweiterung der Steuerung – insbesondere von Entlastungsanlagen – im Hinblick auf die entlasteten Schmutzfrachten und geben darüber hinaus detaillierte Informationen für den Betrieb der Kläranlage. Weiterführende biologische Prozessmodellierungen ergänzen dieses Themenfeld. GIS Werkzeuge können bei der räumlich differenzierten Modellierung von Kanalnetzen wertvolle Dienste leisten. Die detaillierte Betrachtung einzelner Haltungsflächen in ihrem räumlichen Zusammenhang ist damit ebenso möglich wie eine komplette Verwaltung aller für die Kanalnetzmodellierung notwendigen Daten in einem übersichtlichen grafischen Menü. Die Grenzen der Kanalnetzmodellierung lagen in früheren Zeiten an dessen Rand. Detaillierte Informationen über die Wege des Wassers auf der Geländeoberfläche, an der Schnittstelle zu Vorflutern und in der Interaktion mit Grundwasser waren bisher nicht modelltechnisch bewertbar. Eine dynamische Kopplung verschiedener Modelle zur Darstellung aller relevanten hydraulischen Prozesse ermöglicht eine integrative Betrachtung aller möglichen Wege, die das Wasser in der Stadt nehmen kann (Mark & Djordjevic, 2006). Dieser Beitrag präsentiert den Stand der Technik für die integrierte Modellierung städtischer Überschwemmungen mit Hilfe der Modellkopplung von Oberflächenmodellen und Kanalnetzmodellen.
Dr.-Ing. Lothar Fuchs vom itwh Hannover mit 13 Seiten (S. 57-69) Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> Zusammenfassung [des Autors] Die wesentlichen technischen Probleme der Kanalnetzbewirtschaftung sind gelöst. Der Markt bietet bewährte Messgeräte, Steuerungseinrichtungen, Datenübertragungs-, Regler- und Rechnersysteme, die sich für den Einsatz in der Stadtentwässerung eignen. Mit den heute existierenden Simulationsmodellen können die Auswirkungen von Bewirtschaftungssystemen abgeschätzt werden, bevor diese implementiert werden. Die für Bewirtschaftungssysteme notwendige Ausrüstung ist eine andere, als die traditionell in der Stadtentwässerung übliche. Sie erfordert in jedem Fall mehr und teureren Wartungsaufwand sowie anders ausgebildetes Personal. Bei einem Kostenvergleich mit konventionellen (d.h. ungesteuerten) Systemen muß die umfassende Information und Kontrolle des bewirtschafteten Systems berücksichtigt werden. Die permanente Information über den Betriebszustand sowie die in allen existierenden Bewirtschaftungssystemen erreichten Verminderungen von Regenentlastungen und (in geringerem Maße) hydraulischen Überlastungen lassen es geraten erscheinen, Kanalnetzbewirtschaftung nicht nur unter dem Gesichtspunkt der höheren Betriebskosten, sondern auch denen der möglich Einsparungen von Investitionen und der höheren Effizienz zu beurteilen. Analog lässt sich zeigen, dass bewirtschaftete Systeme kleiner ausgelegt werden können und dennoch die gleiche Effizienz besitzen wie größer dimensionierte, statisch wirkende Systeme.
Abstract des Beitrags zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> 1 S. : Bereits seit Jahrzehnten werden verschiedenste Injektions-Verfahren, welche teilweise aus den Vereinigten Staaten lizenziert wurden, in Deutschland angewendet, um Abwasserkanäle zu ertüchtigen. Die Resultate sind teilweise sehr umstritten, nicht zuletzt aufgrund unzureichender Materialeigenschaften in den Anfangsjahren der Anwendung. Viele Methoden sind darüber völlig aus dem Gebrauch gekommen und haben manchmal das ganze Verfahrensprinzip in Verruf gebracht. Mittlerweile wurden sowohl Verfahren als auch Materialien weiterentwickelt und sind nun in der Lage auch den aktuellen strengen und praxisnahen Testverfahren mittels Säuleninjektionsversuchen zur Beurteilung Umweltverträglichkeit zu genügen. Es wird ein kurzer Überblick über die derzeit am Markt befindlichen/üblichen Regelwerke, Verfahren und Materialien gegeben und die Grenzen und Möglichkeiten im Rahmen der Kanalsanierung aufgezeigt.
Dipl.-Ing. Dirk Hecker von der Ingenieurgesellschaft Tuttahs & Meyer in Aachen. Vortrag gehalten beim 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> 27 S. (S. 28-54) Zusammenfassung [des Autors]: Nach den spektakulären Hochwasserereignissen an Rhein, Elbe und Donau hat die Deutsche Vereinigung für Wasserwirtschaft, Abwasser und Abfall e. V. (DWA) einen Fachausschuss zur Erstellung eines Merkblattes M 103 „Hochwasserschutz für Abwasseranlagen“ berufen. Das Merkblatt zeigt in den Kapiteln Konzeption, Planungsgrundsätze und Hochwassermanagement eine strukturierte Vorgehensweise zur bestmöglichen Vorsorge zum Schutz der Abwasseranlagen im Hochwasserfall. Entsprechend den Forderungen des im Jahr 2005 verabschiedeten Gesetzes zur Verbesserung des vorbeugenden Hochwasserschutzes, floss in das Wasserhaushaltsgesetz unter anderem die allgemeine Verpflichtung jedes potentiell vom Hochwasser Betroffenen ein, geeignete Schutzmaßnahmen zur Schadensminimierung zu treffen. Hierbei werden speziell die Wasserversorgung und die Abwasserbeseitigung erwähnt. Im DWA-M 103 wir detailliert dargestellt wie und mit welchem Aufwand die Abwasseranlagen zu überprüfen sind und wie hierzu ein Hochwasserschutzkonzept erstellt werden kann. Zusätzlich werden Hinweise für die Planung von Abwasseranlagen in hochwassergefährdeten Bereichen gegeben, die den störungsfreien Betrieb im Hochwasserfall gewährleisten sollen. Schlussendlich werden das Hochwassermanagement und der Betrieb dargestellt und hier wichtige Anregungen gegeben im Ernstfall ausreichend vorbereitet zu sein. Das DWA-M 103 richtet sich in erster Linie an die Betreiber und Planer von Abwasseranlagen. Jedoch werden hier auch, gerade durch die Vielzahl von Checklisten, Kommunen Denkanstöße und Anregungen für die Hochwasservorsorge/-schutz von öffentlichen Gebäuden und Einrichtungen gegeben.
In: Konferenzband zur Konferenz Medienproduktion 2007, 1.12.2008. 29 S. High Quality Streaming beschäftigt sich mit High Definition Television und Mehrkanal Sound. In diesem Beitrag werden die Technologien und Anwendungsperspektiven für HD Medien-Dienstleistungen beschrieben. Der Beitrag entstand im Rahmen der Konferenz Medienproduktion „Expansion und Mobilität“ am 7. Dezember 2007. Der Beitrag beschreibt Geschäftsmodelle, Technologien und neue Anwendungen für High Quality Streaming. Neben der Präsentation wurden auch die Medienproduktionen der unterschiedlichen HQ-Mediendienste vorgeführt. Die Mediendienste sind im Rahmen der Forschungsarbeit High Quality Media Services des Studiengangs Communication and Multimedia Design (Fachbereich Elektrotechnik und Informationstechnik) an der Fachhochschule Aachen entstanden. Eine Marktevaluierung der deutschen und niederländischen Märkte, internationale Expertengesprächen sowie ein Prototypen HDMediaservices bilden die Basis der Forschungsarbeit. Die Mediendienste stehen zur Demonstration unter dem Link media.fh-aachen.de bereit. HQ-Mediendienste bedeuten: Gestochen scharfe Bilder in High Definition, volle Klänge in Surround und das über das Internet, wo doch gerade mal die briefmarkengroßen Bilder mit unscharfen Konturen und krätzenden Klängen der heutigen Portale wie YouTube Alltag sind.
- Wie kam es zu der globalen Finanzkrise? - Wodurch zeichnet sich die Finanzkrise aus? - Wer hat die Finanzkrise verschuldet? - Welche Rolle spielten Spekulanten? - Inwiefern ist die Finanzkrise selbstverschuldet? - Ist die Globalisierung Schuld an den Finanzkrisen in zahlreichen Regionen dieser Welt? - Wie wirkt sich die Finanzkrise auf die Realwirtschaft aus? - Welche Wege bieten sich, aus der Krise herauszukommen?
On 1st January 1998, the German telecom market was fully liberalised. Since then genuine competition between market participants has developed, based on a comprehensive legal and regulatory framework that provides for safeguards against unfair competition and market power by Deutsche Telekom. Today, about 10 years after the liberalisation of the telecommunications sector a revision of this regulatory approach has become necessary because at least on three dimensions the situation is quite different from the one 10 years ago: First, with numerous established alternative operators in the market monopolies have been successfully challenged and competition introduced. Second, not only is Cable TV becoming in large parts of Germany a viable alternative for the provision of broadband services but also mobile services are becoming increasingly a substitute for fixed services. Last but not least there are important technological changes under way, requiring huge investments in infrastructure upgrades for next generation networks. In the light of these new developments the question is to which extent the current regulatory approach of severe ex-ante regulatory intervention is still appropriate. Is any part of the network of the former incumbent still a bottleneck? A more light handed regulatory approach might be the right response to this new situation. The paper is organised as follows: The first section will briefly examine the economic rationale for regulating network access. Based on the assumption that regulation is always necessary when bottlenecks exist regulatory principles for an efficient network access regime will be derived. The second section compares the situation of the German market in early 1998 with the one of today. Thereby three dimensions will be considered: the degree of competition, the potential for substitution and technological developments. The third section will define some requirements for the future regulation of telecom markets. Proposals will be elaborated how to ensure competitive telecom markets in the light of new economic and technological challenges.
RaWid was the German national technology programme on transonic aerodynamics and supporting technologies, lasting from 1995 to 1998. One of the main topics was laminar wing development. Besides aerodynamic design work, many operational aspects were investigated. A manufacturing concept was developed to be applied to operational laminar wings and empennages. It was built in a large scale manufacturing demonstrator with the aerodynamic shape of a 1,5 m section of the A320 fin nose. Tolerances in shape and roughness fulfilled all requirements. The construction can easily be adapted to varying stiffness and strength requirements. Weight and manufacturing costs are comparable to common nose designs. The mock-up to be designed in ALTTA is based on this manufacturing principle. Another critical point is contamination of suction surfaces. Several tests were performed to investigate perforated titanium suction surfaces at realistic operational conditions: - a one year flight test with a suction plate in the stagnation area of the Airbus "Beluga" - a one year test of several suction plates in a ground test near the airport - a one year test of a working suction ground test installation at all weather conditions. No critical results were found. There is no long term suction degradation visible. Icing conditions and ground de-icing fluids used on airports did not pose severe problems. Some problems detected require only respection of weak design constraints.
7th International Conference on Reliability of Materials and Structures (RELMAS 2008). June 17 - 20, 2008 ; Saint Petersburg, Russia. pp 354-358. Reprint with corrections in red Introduction Analysis of advanced structures working under extreme heavy loading such as nuclear power plants and piping system should take into account the randomness of loading, geometrical and material parameters. The existing reliability are restricted mostly to the elastic working regime, e.g. allowable local stresses. Development of the limit and shakedown reliability-based analysis and design methods, exploiting potential of the shakedown working regime, is highly needed. In this paper the application of a new algorithm of probabilistic limit and shakedown analysis for shell structures is presented, in which the loading and strength of the material as well as the thickness of the shell are considered as random variables. The reliability analysis problems may be efficiently solved by using a system combining the available FE codes, a deterministic limit and shakedown analysis, and the First and Second Order Reliability Methods (FORM/SORM). Non-linear sensitivity analyses are obtained directly from the solution of the deterministic problem without extra computational costs.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der klassischen Plastizitätstheorie, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Eine FEM-basierte Traglast- und Einspielanalyse für ideal plastisches Material wurde auf ein kinematisch verfestigendes Materialgesetz erweitert und in das Finite Element Programm PERMAS implementiert. In einem einfachen Zug-Torsionsexperiment wurde eine Hohlprobe mit konstanter Torsion und zyklischer Zugbelastung beansprucht, um die neue Implementierung zu verifizieren. Es konnte gezeigt werden, dass die Einspielanalyse gut mit den experimentellen Ergebnissen übereinstimmt. Bei Verfestigung lassen sich wesentlich größere Sicherheiten nachweisen. Dieses Potential bedarf weiterer experimenteller Absicherung. Parallel dazu ist die Eisnpieltheorie auf fortschrittliche Verfestigungsansätze zu erweitern.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist ähnlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA entwickelten Zuverlässigkeitsanalysen sind nichlinear erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar. Auf die vorgesehenen Erweiterungen der Werkstoffmodellierung für nichtlineare Verfestigung und für Schädigung konnte hier nicht eingegangen werden. Es herrscht ein deutlicher Mangel an Experimenten zum Nachweis der Grenzen zwischen elastischem Einspielen und dem Versagen durch LCF oder durch Ratchetting.
Im Rahmen von Ermüdungsanalysen ist nachzuweisen, daß die thermisch bedingten fortschreitenden Deformationen begrenzt bleiben. Hierzu ist die Abgrenzung des Shakedown-Bereiches (Einspielen) vom Ratchetting-Bereich (fortschreitende Deformation) von Interesse. Im Rahmen eines EU-geförderten Forschungsvorhabens wurden Experimente mit einem 4-Stab-Modell durchgeführt. Das Experiment bestand aus einem wassergekühlten inneren Rohr und drei isolierten und beheizbaren äußeren Probestäben. Das System wurde durch alternierende Axialkräfte, denen alternierende Temperaturen an den äußeren Stäben überlagert wurden, belastet. Die Versuchsparameter wurden teilweise nach vorausgegangenen Einspielanalysen gewählt. Während der Versuchsdurchführung wurden Temperaturen und Dehnungen zeitabhängig gemessen. Begleitend und nachfolgend zur Versuchsdurchführung wurden die Belastungen und die daraus resultierenden Beanspruchungen nachvollzogen. Bei dieser inkrementellen elasto-plastischen Analyse mit dem Programm ANSYS wurden unterschiedliche Werkstoffmodelle angesetzt. Die Ergebnisse dieser Simulationsberechnung dienen dazu, die Shakedown-Analysen mittels FE-Methode zu verifizieren.
Limit and shakedown theorems are exact theories of classical plasticity for the direct computation of safety factors or of the load carrying capacity under constant and varying loads. Simple versions of limit and shakedown analysis are the basis of all design codes for pressure vessels and pipings. Using Finite Element Methods more realistic modeling can be used for a more rational design. The methods can be extended to yield optimum plastic design. In this paper we present a first implementation in FE of limit and shakedown analyses for perfectly plastic material. Limit and shakedown analyses are done of a pipe–junction and a interaction diagram is calculated. The results are in good correspondence with the analytic solution we give in the appendix.
Genaue Kenntnis der Spannungen und Verformungen in passiven Komponenten gewinnt man mit detailierten inelastischen FEM Analysen. Die lokale Beanspruchung läßt sich aber nicht direkt mit einer Beanspruchbarkeit im strukturmechanischen Sinne vergleichen. Konzentriert man sich auf die Frage nach der Tragfähigkeit, dann vereinfacht sich die Analyse. Im Rahmen der Plastizitätstheorie berechnen Traglast- und Einspielanalyse die tragbaren Lasten direkt und exakt. In diesem Beitrag wird eine Implementierung der Traglast- und Einspielsätze in ein allgemeines FEM Programm vorgestellt, mit der die Tragfähigkeit passiver Komponenten direkt berechnet wird. Die benutzten Konzepte werden in Bezug auf die übliche Strukturanalyse erläutert. Beispiele mit lokal hoher Beanspruchung verdeutlichen die Anwendung der FEM basierten Traglast- und Einspielanalysen. Die berechneten Interaktionsdiagramme geben einen guten Überblick über die möglichen Betriebsbereiche passiver Komponenten. Die Traglastanalyse bietet auch einen strukturmechanischen Zugang zur Kollapslast rißbehafteter Komponenten aus hochzähem Material.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. Die Autoren möchten der Europäischen Kommission an dieser Stelle für die Förderung ausdrücklich danken. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist änhlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA geplante Zuverlässigkeitsanalyse ist erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar.
Abstracts of the ACHEMA 2000 - International Meeting on Chemical Engineering, Environmental Protection and Biotechnology, May 22 - 27, 2000. Frankfurt am Main. Achema 2000 : special edition / Linde. [Ed.: Linde AG. Red.: Volker R. Leski]. - Wiesbaden : Linde AG, 2000. - 56 p. : Ill., . - pp: 79 - 81
A procedure for the evaluation of the failure probability of elastic-plastic thin shell structures is presented. The procedure involves a deterministic limit and shakedown analysis for each probabilistic iteration which is based on the kinematical approach and the use the exact Ilyushin yield surface. Based on a direct definition of the limit state function, the non-linear problems may be efficiently solved by using the First and Second Order Reliabiblity Methods (Form/SORM). This direct approach reduces considerably the necessary knowledge of uncertain technological input data, computing costs and the numerical error. In: Computational plasticity / ed. by Eugenio Onate. Dordrecht: Springer 2007. VII, 265 S. (Computational Methods in Applied Sciences ; 7) (COMPLAS IX. Part 1 . International Center for Numerical Methods in Engineering (CIMNE)). ISBN 978-1-402-06576-7 S. 186-189
Market data for the German telecom market shows that Deutsche Telekom as the former incumbent is constantly loosing shares on all arkets for voice telephony: the market for local calls, the market for long-distance calls and the market for international calls. At the same time prices decline steadily with the latest trend being that operators offer voice services free of charge, the costs of which are covered by a monthly subscription charge. Against this background the paper examines the state of policy and regulatory reform in the telecommunications sector in Germany almost 10 years after the liberalisation of the fixed telecommunications market. Thereby the focus is on the analysis of the competitive conditions that have been established on the German market for voice telephony services. If these retail markets are competitive, there might be a need to remove remaining regulatory provisions. In the new environment of converging markets the future challenge of regulating fixed telecom markets might be to ensure that access to the network and/or services of a potentially dominant provider in a relevant market will satisfy requirements for openness and non-discrimination.
Proceedings of the International Conference on Material Theory and Nonlinear Dynamics. MatDyn. Hanoi, Vietnam, Sept. 24-26, 2007, 8 p. In this paper, a method is introduced to determine the limit load of general shells using the finite element method. The method is based on an upper bound limit and shakedown analysis with elastic-perfectly plastic material model. A non-linear constrained optimisation problem is solved by using Newton’s method in conjunction with a penalty method and the Lagrangean dual method. Numerical investigation of a pipe bend subjected to bending moments proves the effectiveness of the algorithm.
O Perfil Reiss apresenta no resultado uma visão da estrutura dos motivos e impulsos de uma pessoa. O ponto de saída para a análise do resultado é o conhecimento de que os motivos vitais (= valores e metas de sobrevivência) formam a moldura, na qual as competências e capacidades que uma pessoa possui possam se desabrochar de forma ideal. A partir desse princípio, não existe no Perfil Reiss nenhum resultado que se possa classificar como correto ou falso, nem como bom ou mau. Uma comparação entre o resultado do Perfil Reiss e o conteúdo de uma atividade apresentada ou ambicionada dá informação sobre até que ponto a capacidade de rendimento de uma pessoa nessa posição pode vir ou virá a se desenvolver por um longo tempo.
Concept, scientific research and managerial applications of Provocative Coaching, according to the „Provocative Therapy“ of Prof. Dr. Frank Farrelly (University of Wisconsin, U.S.A) in terms of an application of the Provocative Communication Style in specific situations of practical leadership, especially in the role of a coach for their subordinates.
Hands-on-training in high technology areas is usually limited due to the high cost for lab infrastructure and equipment. One specific example is the field of MEMS, where investment and upkeep of clean rooms with microtechnology equipment is either financed by production or R&D projects greatly reducing the availability for education purposes. For efficient hands-on-courses a MEMS training foundry, currently used jointly by six higher education institutions, was established at FH Kaiserslautern. In a typical one week course, students manufacture a micromachined pressure sensor including all lithography, thin film and packaging steps. This compact and yet complete program is only possible because participants learn to use the different complex machines in advance via a Virtual Training Lab (VTL). In this paper we present the concept of the MEMS training foundry and the VTL preparation together with results from a scientific evaluation of the VTL over the last three years.
The nonlinear scalar constitutive equations of gases lead to a change in sound speed from point to point as would be found in linear inhomogeneous (and time dependent) media. The nonlinear tensor constitutive equations of solids introduce the additional local effect of solution dependent anisotropy. The speed of a wave passing through a point changes with propagation direction and its rays are inclined to the front. It is an open question whether the widely used operator splitting techniques achieve a dimensional splitting with physically reasonable results for these multi-dimensional problems. May be this is the main reason why the theoretical and numerical investigations of multi-dimensional wave propagation in nonlinear solids are so far behind gas dynamics. We hope to promote the subject a little by a discussion of some fundamental aspects of the solution of the equations of nonlinear elastodynamics. We use methods of characteristics because they only integrate mathematically exact equations which have a direct physical interpretation.
A key feature of future broadband markets will be diversity of access technologies, meaning that numerous technologies will be exploited for broadband communication. Various factors will affect the success of these future broadband markets, the regulatory policy being one amongst others. So far, a coherent regulatory approach does not exist as to broadband markets. First results of policies so far suggest that less sector-specific regulation is likely to occur. Instead, regulators must ensure that access to networks and services of potentially dominant providers in a relevant broadband market will satisfy requirements for openness and non-discrimination. In this environment the future challenge of regulationg broadband markets will be to set the right incentives for investment into new infrastructures. This paper examines whether there is a need for the regulation of future broadband access markets an if yes, what is the appropriate regulatory tool to do so. Thereby the focus is on the analysis of European broadband markets and the regulatory approaches applied. The first section provides a description of the characteristics of future broadband markets. The second section discusses possible bottlenecks on broadband markets an their regulatory implications. The third section will examine regulatory issues concerning access to broadband networks in more detail. This will be done by comparing the regulatory approaches of European countries and the results in terms of bradband penetration. The final section will give key recommendations for a regulatory strategy on brandband access markets.
In: Technical feasibility and reliability of passive safety systems for nuclear power plants. Proceedings of an Advisory Group Meeting held in Jülich, 21-24 November 1994. - Vienna , 1996. - Seite: 43 - 55 IAEA-TECDOC-920 Abstract: It is shown that the difficulty for probabilistic fracture mechanics (PFM) is the general problem of the high reliability of a small population. There is no way around the problem as yet. Therefore what PFM can contribute to the reliability of steel pressure boundaries is demonstrated with the example of a typical reactor pressure vessel and critically discussed. Although no method is distinguishable that could give exact failure probabilities, PFM has several additional chances. Upper limits for failure probability may be obtained together with trends for design and operating conditions. Further, PFM can identify the most sensitive parameters, improved control of which would increase reliability. Thus PFM should play a vital role in the analysis of steel pressure boundaries despite all shortcomings.