Refine
Year of publication
Institute
- Fachbereich Medizintechnik und Technomathematik (91)
- IfB - Institut für Bioengineering (38)
- Fachbereich Bauingenieurwesen (36)
- Fachbereich Energietechnik (33)
- Fachbereich Maschinenbau und Mechatronik (19)
- Fachbereich Elektrotechnik und Informationstechnik (16)
- Fachbereich Wirtschaftswissenschaften (15)
- INB - Institut für Nano- und Biotechnologien (11)
- Fachbereich Luft- und Raumfahrttechnik (10)
- FH Aachen (6)
Has Fulltext
- yes (226) (remove)
Language
- English (129)
- German (95)
- Multiple languages (1)
- Spanish (1)
Document Type
- Conference Proceeding (226) (remove)
Keywords
- Biosensor (25)
- Blitzschutz (15)
- CAD (11)
- Finite-Elemente-Methode (11)
- civil engineering (11)
- Bauingenieurwesen (10)
- Lightning protection (9)
- Einspielen <Werkstoff> (6)
- Telekommunikationsmarkt (6)
- shakedown analysis (6)
Hands-on-training in high technology areas is usually limited due to the high cost for lab infrastructure and equipment. One specific example is the field of MEMS, where investment and upkeep of clean rooms with microtechnology equipment is either financed by production or R&D projects greatly reducing the availability for education purposes. For efficient hands-on-courses a MEMS training foundry, currently used jointly by six higher education institutions, was established at FH Kaiserslautern. In a typical one week course, students manufacture a micromachined pressure sensor including all lithography, thin film and packaging steps. This compact and yet complete program is only possible because participants learn to use the different complex machines in advance via a Virtual Training Lab (VTL). In this paper we present the concept of the MEMS training foundry and the VTL preparation together with results from a scientific evaluation of the VTL over the last three years.
The sorption of LPS toxic shock by nanoparticles on base of carbonized vegetable raw materials
(2008)
Immobilization of lactobacillus on high temperature carbonizated vegetable raw material (rice husk, grape stones) increases their physiological activity and the quantity of the antibacterial metabolits, that consequently lead to increase of the antagonistic activity of lactobacillus. It is implies that the use of the nanosorbents for the attachment of the probiotical microorganisms are highly perspective for decision the important problems, such as the probiotical preparations delivery to the right address and their attachment to intestines mucosa with the following detoxication of gastro-intestinal tract and the normalization of it’s microecology. Besides that, thus, the received carbonizated nanoparticles have peculiar properties – ability to sorption of LPS toxical shock and, hence, to the detoxication of LPS.
In: Konferenzband zur Konferenz Medienproduktion 2007, 1.12.2008. 29 S. High Quality Streaming beschäftigt sich mit High Definition Television und Mehrkanal Sound. In diesem Beitrag werden die Technologien und Anwendungsperspektiven für HD Medien-Dienstleistungen beschrieben. Der Beitrag entstand im Rahmen der Konferenz Medienproduktion „Expansion und Mobilität“ am 7. Dezember 2007. Der Beitrag beschreibt Geschäftsmodelle, Technologien und neue Anwendungen für High Quality Streaming. Neben der Präsentation wurden auch die Medienproduktionen der unterschiedlichen HQ-Mediendienste vorgeführt. Die Mediendienste sind im Rahmen der Forschungsarbeit High Quality Media Services des Studiengangs Communication and Multimedia Design (Fachbereich Elektrotechnik und Informationstechnik) an der Fachhochschule Aachen entstanden. Eine Marktevaluierung der deutschen und niederländischen Märkte, internationale Expertengesprächen sowie ein Prototypen HDMediaservices bilden die Basis der Forschungsarbeit. Die Mediendienste stehen zur Demonstration unter dem Link media.fh-aachen.de bereit. HQ-Mediendienste bedeuten: Gestochen scharfe Bilder in High Definition, volle Klänge in Surround und das über das Internet, wo doch gerade mal die briefmarkengroßen Bilder mit unscharfen Konturen und krätzenden Klängen der heutigen Portale wie YouTube Alltag sind.
This paper reports a first microbial biosensor for rapid and cost-effective determination of organophosphorus pesticides fenitrothion and EPN. The biosensor consisted of recombinant PNP-degrading/oxidizing bacteria Pseudomonas putida JS444 anchoring and displaying organophosphorus hydrolase (OPH) on its cell surface as biological sensing element and a dissolved oxygen electrode as the transducer. Surfaceexpressed OPH catalyzed the hydrolysis of fenitrothion and EPN to release 3-methyl-4-nitrophenol and p-nitrophenol, respectively, which were oxidized by the enzymatic machinery of Pseudomonas putida JS444 to carbon dioxide while consuming oxygen, which was measured and correlated to the concentration of organophosphates. Under the optimum operating conditions, the biosensor was able to measure as low as 277 ppb of fenitrothion and 1.6 ppm of EPN without interference from phenolic compounds and other commonly used pesticides such as carbamate pesticides, triazine herbicides and organophosphate pesticides without nitrophenyl substituent. The applicability of the biosensor to lake water was also demonstrated.
Im Rahmen von Ermüdungsanalysen ist nachzuweisen, daß die thermisch bedingten fortschreitenden Deformationen begrenzt bleiben. Hierzu ist die Abgrenzung des Shakedown-Bereiches (Einspielen) vom Ratchetting-Bereich (fortschreitende Deformation) von Interesse. Im Rahmen eines EU-geförderten Forschungsvorhabens wurden Experimente mit einem 4-Stab-Modell durchgeführt. Das Experiment bestand aus einem wassergekühlten inneren Rohr und drei isolierten und beheizbaren äußeren Probestäben. Das System wurde durch alternierende Axialkräfte, denen alternierende Temperaturen an den äußeren Stäben überlagert wurden, belastet. Die Versuchsparameter wurden teilweise nach vorausgegangenen Einspielanalysen gewählt. Während der Versuchsdurchführung wurden Temperaturen und Dehnungen zeitabhängig gemessen. Begleitend und nachfolgend zur Versuchsdurchführung wurden die Belastungen und die daraus resultierenden Beanspruchungen nachvollzogen. Bei dieser inkrementellen elasto-plastischen Analyse mit dem Programm ANSYS wurden unterschiedliche Werkstoffmodelle angesetzt. Die Ergebnisse dieser Simulationsberechnung dienen dazu, die Shakedown-Analysen mittels FE-Methode zu verifizieren.
Ein von der Arbeitsgemeinschaft (AG) Solar NRW und diversen Industriepartnern gefördertes und an der Fachhochschule Aachen, Abt. Jülich durchgeführtes Forschungsprojekt „Blitzschutz für netz-autarke Hybridanlagen“ machte es möglich, sich mit dem Blitzschutz speziell solcher Anlagen näher zu beschäftigen. Vermehrt bekannt gewordene Schadensfälle an nicht netz-gekoppelten Hybridanlagen waren der Auslöser, den Schutz zu überdenken. Definiertes Ziel war es, für netz-autarke energietechnische Anlagen ein Konzept zum Schutz vor Blitzeinwirkungen zu erstellen. Diese Anlagen bestehen üblicherweise aus einer oder mehreren Photovoltaikanlagen, ggf. auch Solarthermieanlagen und einem oder mehreren kleineren Windgeneratoren (sie werden deshalb auch als Hybridanlagen bezeichnet). Zur Erhöhung der Versorgungssicherheit kann noch ein Dieselaggregat dazukommen. Hybridanlagen werden vor allem in Gebieten mit sehr schlechter öffentlicher Energieversorgung eingesetzt, d.h. insbesondere in relativ dünn bewohnten Gebieten und in Entwicklungsländern. Dem Blitzschutz von Hybridanlagen kommt dabei eine steigende Bedeutung zu. Besonderes Augenmerk in dem genannten Forschungsprojekt sollte dabei auf die technisch/wirtschaftliche Ausgewogenheit des Schutzes gelegt werden: • die Schutzmaßnahmen sollen nur in solchen Fällen eingesetzt werden, wo dies als Ergebnis von Risikoanalysen sinnvoll erscheint; • für typische netz-autarke Hybridanlagen sollen die Schutzmaßnahmen ohne deutliche Verteuerung realisierbar sein (es soll also kein absoluter Schutz realisiert werden; ggf. soll lediglich der auftretende Schaden soweit möglich minimiert werden). Dazu wurde in einem ersten Schritt zunächst eine Aufnahme des Iststandes einiger typischer netz-autarker Hybridanlagen und deren einzelnen Komponenten durchgeführt. Aufgrund dessen wurde eine umfassende Risikoanalyse zur Blitzbedrohung dieser Anlagen auf der Basis von VDE V 0185 Teil 2:2002-11 [1] erstellt. Die Ergebnisse mündeten in ein technisch/wirtschaftlich ausgewogenes Konzept für den Anlagen- Blitzschutz (d.h. insbesondere dem Schutz vor direkten Blitzeinschlägen und deren unmittelbaren Auswirkungen) nach VDE V 0185 Teil 3:2002-11 [2] und für den Elektronik-Blitzschutz (d.h. für den Schutz vor Überspannungen durch direkte, insbesondere aber auch indirekte Blitzeinschläge) nach VDE V 0185 Teil 4:2002-11 [3]. Aufgrund der gesammelten Ergebnisse konnten dabei allgemeine Empfehlungen für den Äußeren und Inneren Blitzschutz von regenerativen Energieerzeugungssystemen erstellt werden. Diese sollen in Schulungen einmünden, die für Hersteller und Betreiber von Hybridanlagen angeboten werden. Durch die Anwendung wird der Schutz der Anlagen vor Blitzeinwirkung und elektromagnetischen Störungen verbessert, was sich in einer reduzierten Ausfallwahrscheinlichkeit bzw. erhöhten Verfügbarkeit wiederspiegelt. An einigen ausgewählten Anlagen werden mit Hilfe der im Projekt involvierten Industriepartner die Schutzmaßnahmen realisiert. Hierbei entstanden den Eigentümern bzw. Betreibern der Anlagen keine Kosten. In diesem Beitrag werden beispielhaft drei Anlagenprojekte detailliert gezeigt. Es handelt sich dabei um eine Schweinezuchtfarm in Magallón (Spanien, Zaragozza), das bioklimatische Haus (Kreta, Heraklion) und die Tegernseer- Hütte (Deutschland, Lenggries).
An array of 50 MHz quartz microbalances (QMBs) coated with a dendronized polymer was used to detect small amounts of volatile organic compounds (VOCs) in the gas phase. The results were compared to those obtained with the commonly used 10 MHz QMBs. The 50 MHz QMBs proved to be a powerful tool for the detection of VOCs in the gas phase; therefore, they represent a promising alternative to the much more delicate surface acoustic wave devices (SAWs).
In: Alfha.net / Sektion Bauingenieurwesen: 1. [Erster] Erfahrungsaustausch : Absolventen des Fachbereichs Bauingenieurwesens berichten. 13. Oktober 2006. S. 16-17 Der Umbau des Aachener Buschtunnels im Rahmen des europäischen Hochgeschwindigkeitsschienennetzes wird im sogenannten "Neuen Österreichischen Tunnelbauverfahren (NOeT)", also ein Ausbau in Kalotte, Strosse und Sohle durchgeführt.
Proc. of the 2005 ASCE Intl. Conf. on Computing in Civil Engineering (ICCC 2005) eds. L. Soibelman und F. Pena-Mora, Seite 1-14, ASCE (CD-ROM), Cancun, Mexico, 2005 Current CAD tools are not able to support the fundamental conceptual design phase, and none of them provides consistency analyses of sketches produced by architects. To give architects a greater support at the conceptual design phase, we develop a CAD tool for conceptual design and a knowledge specification tool allowing the definition of conceptually relevant knowledge. The knowledge is specific to one class of buildings and can be reused. Based on a dynamic knowledge model, different types of design rules formalize the knowledge in a graph-based realization. An expressive visual language provides a user-friendly, human readable representation. Finally, consistency analyses enable conceptual designs to be checked against this defined knowledge. In this paper we concentrate on the knowledge specification part of our project.
In: Net-distributed Co-operation : Xth International Conference on Computing in Civil and Building Engineering, Weimar, June 02 - 04, 2004 ; proceedings / [ed. by Karl Beuke ...] . - Weimar: Bauhaus-Univ. Weimar 2004. - 1. Aufl. . Seite 1-14 ISBN 3-86068-213-X International Conference on Computing in Civil and Building Engineering <10, 2004, Weimar> Summary In our project, we develop new tools for the conceptual design phase. During conceptual design, the coarse functionality and organization of a building is more important than a detailed worked out construction. We identify two roles, first the knowledge engineer who is responsible for knowledge definition and maintenance; second the architect who elaborates the conceptual de-sign. The tool for the knowledge engineer is based on graph technology, it is specified using PROGRES and the UPGRADE framework. The tools for the architect are integrated to the in-dustrial CAD tool ArchiCAD. Consistency between knowledge and conceptual design is en-sured by the constraint checker, another extension to ArchiCAD.
In: Computer Aided Architectural Design Futures 2005 2005, Part 4, 207-216, DOI: http://dx.doi.org/10.1007/1-4020-3698-1_19 The conceptual design at the beginning of the building construction process is essential for the success of a building project. Even if some CAD tools allow elaborating conceptual sketches, they rather focus on the shape of the building elements and not on their functionality. We introduce semantic roomobjects and roomlinks, by way of example to the CAD tool ArchiCAD. These extensions provide a basis for specifying the organisation and functionality of a building and free architects being forced to directly produce detailed constructive sketches. Furthermore, we introduce consistency analyses of the conceptual sketch, based on an ontology containing conceptual relevant knowledge, specific to one class of buildings.
In: Forum Bauinformatik 2005 : junge Wissenschaftler forschen / [Lehrstuhl Bauinformatik, Brandenburgische Technische Universität Cottbus. Frank Schley ... (Hrsg.)]. - Cottbus : Techn. Universität 2005. S. 1-10 ISBN 3-934934-11-0
Mittels eines operationalen Ansatzes zur Semantikdefinition wird am Bei-spiel des konzeptuellen Gebäudeentwurfs ein Regelsystem formalisiert. Dazu werdenzwei Teile, zum einen das Regelwissen, zum anderen ein konzeptueller Entwurfsplan zunächst informell eingeführt und dann formal beschrieben. Darauf aufbauend wird die Grundlage für eine Konsistenzprüfung des konzeptuellen Entwurfs gegen das Regel-wissen formal angeben
In: Proceedings of the 39th Annual Hawaii International Conference on System Sciences, 2006. HICSS '06 http://dx.doi.org/10.1109/HICSS.2006.200 The conceptual design phase at the beginning of the building construction process is not adequately supported by any CAD-tool. Conceptual design support needs regarding two aspects: first, the architect must be able to develop conceptual sketches that provide abstraction from constructive details. Second, conceptually relevant knowledge should be available to check these conceptual sketches. The paper deals with knowledge to formalize for conceptual design. To enable domain experts formalizing knowledge, a graph-based specification is presented that allows the development of a domain ontology and design rules specific for one class of buildings at runtime. The provided tool support illustrates the introduced concepts and demonstrates the consistency analysis between knowledge and conceptual design.
In: Proc. of the 11th Intl. Conf. on Computing in Civil and Building Engineering (ICCCBE-XI) ed. Hugues Rivard, Montreal, Canada, Seite 1-12, ACSE (CD-ROM), 2006 Currently, the conceptual design phase is not adequately supported by any CAD tool. Neither the support while elaborating conceptual sketches, nor the automatic proof of correctness with respect to effective restrictions is currently provided by any commercial tool. To enable domain experts to store the common as well as their personal domain knowledge, we develop a visual language for knowledge formalization. In this paper, a major extension to the already existing concepts is introduced. The possibility to define rule dependencies extends the expressiveness of the knowledge definition language and contributes to the usability of our approach.
WS GTaD-2003 - The 1st Workshop on Graph Transformations and Design ed Grabska, E., Seite 6-7, Jagiellonian University Krakow. 2 pages
Applications of Graph Transformations with Industrial Relevance Lecture Notes in Computer Science, 2004, Volume 3062/2004, 90-105, DOI: 10.1007/978-3-540-25959-6_7 In this paper we discuss how tools for conceptual design in civil engineering can be developed using graph transformation specifications. These tools consist of three parts: (a) for elaborating specific conceptual knowledge (knowledge engineer), (b) for working out conceptual design results (architect), and (c) automatic consistency analyses which guarantee that design results are consistent with the underlying specific conceptual knowledge. For the realization of such tools we use a machinery based on graph transformations. In a traditional PROGRES tool specification the conceptual knowledge for a class of buildings is hard-wired within the specification. This is not appropriate for the experimentation platform approach we present in this paper, as objects and relations for conceptual knowledge are due to many changes, implied by evaluation of their use and corresponding improvements. Therefore, we introduce a parametric specification method with the following characteristics: (1) The underlying specific knowledge for a class of buildings is not fixed. Instead, it is built up as a data base by using the knowledge tools. (2) The specification for the architect tools also does not incorporate specific conceptual knowledge. (3) An incremental checker guarantees whether a design result is consistent with the current state of the underlying conceptual knowledge (data base).
ITCE-2003 - 4th Joint Symposium on Information Technology in Civil Engineering ed Flood, I., Seite 1-12, ASCE (CD-ROM), Nashville, USA In this paper we discussed graph based tools to support architects during the conceptual design phase. Conceptual Design is defined before constructive design; the used concepts are more abstract. We develop two graph based approaches, a topdown using the graph rewriting system PROGRES and a more industrially oriented approach, where we extend the CAD system ArchiCAD. In both approaches, knowledge can be defined by a knowledge engineer, in the top-down approach in the domain model graph, in the bottom-up approach in the in an XML file. The defined knowledge is used to incrementally check the sketch and to inform the architect about violations of the defined knowledge. Our goal is to discover design error as soon as possible and to support the architect to design buildings with consideration of conceptual knowledge.
In: Advances in intelligent computing in engineering : proceedings of the 9.International EG-ICE Workshop ; Darmstadt, (01 - 03 August) 2002 / Martina Schnellenbach-Held ... (eds.) . - Düsseldorf: VDI-Verl., 2002 .- Fortschritt-Berichte VDI, Reihe 4, Bauingenieurwesen ; 180 ; S. 1-35 The paper describes a novel way to support conceptual design in civil engineering. The designer uses semantical tools guaranteeing certain internal structures of the design result but also the fulfillment of various constraints. Two different approaches and corresponding tools are discussed: (a) Visually specified tools with automatic code generation to determine a design structure as well as fixing various constraints a design has to obey. These tools are also valuable for design knowledge specialist. (b) Extensions of existing CAD tools to provide semantical knowledge to be used by an architect. It is sketched how these different tools can be combined in the future. The main part of the paper discusses the concepts and realization of two prototypes following the two above approaches. The paper especially discusses that specific graphs and the specification of their structure are useful for both tool realization projects.
Applications of Graph Transformations with Industrial Relevance Lecture Notes in Computer Science, 2004, Volume 3062/2004, 434-439, DOI: http://dx.doi.org/10.1007/978-3-540-25959-6_33 This paper gives a brief overview of the tools we have developed to support conceptual design in civil engineering. Based on the UPGRADE framework, two applications, one for the knowledge engineer and another for architects allow to store domain specific knowledge and to use this knowledge during conceptual design. Consistency analyses check the design against the defined knowledge and inform the architect if rules are violated.
The workflow of a high throughput screening setup for the rapid identification of new and improved sensor materials is presented. The polyol method was applied to prepare nanoparticular metal oxides as base materials, which were functionalised by surface doping. Using multi-electrode substrates and high throughput impedance spectroscopy (HT-IS) a wide range of materials could be screened in a short time. Applying HT-IS in search of new selective gas sensing materials a NO2-tolerant NO sensing material with reduced sensitivities towards other test gases was identified based on iridium doped zinc oxide. Analogous behaviour was observed for iridium doped indium oxide.
IASSE-2004 - 13th International Conference on Intelligent and Adaptive Systems and Software Engineering eds. W. Dosch, N. Debnath, pp. 245-250, ISCA, Cary, NC, 1-3 July 2004, Nice, France We introduce a UML-based model for conceptual design support in civil engineering. Therefore, we identify required extensions to standard UML. Class diagrams are used for elaborating building typespecific knowledge: Object diagrams, implicitly contained in the architect’s sketch, are validated against the defined knowledge. To enable the use of industrial, domain-specific tools, we provide an integrated conceptual design extension. The developed tool support is based on graph rewriting. With our approach architects are enabled to deal with semantic objects during early design phase, assisted by incremental consistency checks.
Blitzschutzkonzept für eine netz-autarke Hybridanlage am Beispiel der Anlage VATALI auf Kreta
(2001)
Netz-autarke Anlagen bestehen üblicherweise aus einer oder mehreren Photovoltaik- (PV-) Anlagen, ggf. auch Solarthermie- (ST-) Anlagen und einem oder mehreren kleineren Windgeneratoren (sie werden deshalb auch als Hybridanlagen bezeichnet) und werden vor allem in Gegenden mit sehr schlechter öffentlicher Energieversorgung eingesetzt, d.h. insbesondere in rel. dünn bewohnten Gebieten und in Entwicklungsländern. Der Blitzschutz von netz-autarken Hybridanlagen ist ein bislang noch vergleichsweise unzureichend bearbeitetes Fachgebiet. Für große Windenergie-Anlagen (WEA) wurde in den letzten Jahren eine Zahl von FuE-Projekten durchgeführt, zum Großteil finanziert durch die öffentliche Hand, zum kleineren Teil auch durch die Industrie, d.h. die WEAHersteller. Dabei wurden bestehende Defizite im Design der WEA festgestellt und Maßnahmen vorgeschlagen, die vor den mechanischen Zerstörungen insbesondere des Rotors und vor den Störungen und Zerstörungen an den elektrischen / elektronischen Systemen der WEA weitgehend Schutz bieten [1, 2, 3]. Der Stand-der- Normung ist im Entwurf DIN VDE 0127 Teil 24 „Blitzschutz für Windenergieanlagen“ (dt. Übersetzung des internationalen Drafts IEC 61400-24 „Wind turbine generator systems; Part 24: Lightning Protection“) dokumentiert [4]. Die Maßnahmen sind allerdings insbesondere für größere WEA vorgesehen; im Falle kleinerer WEA lassen sie sich nur bedingt umsetzen. Trotzdem sind auch kleinere WEA rel. stark blitzeinschlaggefährdet, wenn sie auf einer Bergkuppe o.ä. platziert werden. Für solche kleinere WEA, wie sie bei Hybridanlagen üblicherweise Verwendung finden, müssen die Blitzschutzmaßnahmen aus der DIN VDE 0127 Teil 24 angepasst werden. Für PV- und ST-Anlagen ist eine entsprechende Blitzschutz-Norm noch nicht in Sicht. Hier ist vor allem der Schutz gegen direkte Blitzeinschläge in die Anlage bzw. die Gebäude noch nicht ausreichend beachtet. Blitzfangeinrichtungen sind oft nicht vorgesehen. In aller Regel hat man dabei bisher eine Ausführungsform des Blitzschutzes realisiert, die primär einen Ferneinschlag berücksichtigt und die dabei entstehenden induzierten, rel. energieschwachen Überspannungen durch schwächere Schutzelemente wie Rückstromdioden, Bypassdioden und zum Teil thermisch überwachte Varistoren begrenzt [5, 6, 7]. Diese Schutzelemente können allerdings bei Naheinschlägen bzw. Direkteinschlägen überlastet und damit zerstört werden. Darüber hinaus können Nahoder Direkteinschläge auch zur Schwächung der elektrischen Festigkeit der PVModulisolierung führen. Die Folge davon sind lokale extreme Wärmeentwicklungen, die sogar ein Schmelzen von Glas (sekundärer Langzeiteffekt) hervorrufen könnten. Bei einem Blitzeinschlag in die netz-autarke Hybridanlage VATALI auf Kreta im Jahre 2000 wurden sowohl einige mechanische wie auch elektrische Komponenten der Anlage zerstört bzw. zum Teil schwer beschädigt. Die Anlage VATALI besaß zum Zeitpunkt des Blitzeinschlags keinen wirksamen Blitzschutz. Der Gesamtschaden der Hardware belief sich auf ca. 60.000,- EURO. Die exponierte Stellung der Anlage auf einer Bergspitze stellte und stellt nach wie vor ein enormes Blitzeinschlag-Risiko dar, so dass auch zukünftig mit Blitzeinwirkungen gerechnet werden muss. Die Anlage wurde inspiziert, blitzschutz-technische Erfordernisse definiert und daraus Ertüchtigungsmaßnahmen abgeleitet, die mit überschaubarem Aufwand realisierbar sind.
Im Rahmen eines modernen Blitzschutzsystems für Stahlbeton-Bauten bietet es sich an, die Betonbewehrung zu benutzen: - Sie kann die Funktionen der Ableitungseinrichtungen und des Blitzschutz- Potentialausgleichs bei einem klassischen Gebäude-Blitzschutz übernehmen [1]; - Sie kann, ggf. bei entsprechender Ergänzung, als ein geschlossener Käfig ausgebildet werden und damit eine deutliche Reduzierung der Belastung elektrischer / elektronischer Systeme durch blitzinduzierte elektromagnetische Felder erbringen (LEMP-Schutz [2]). Die Nutzung der Bewehrung ist dabei grundsätzlich gleichermaßen bei Neubauten wie auch bei Ertüchtigungen möglich und sinnvoll. So stellt die Nutzung der Bewehrung beispielsweise im Bereich von Großkraftwerken eine wesentliche Ertüchtigungsmaßnahme für den Blitzschutz elektrischer und elektronischer Einrichtungen dar: - Einerseits wird der Blitzschutz-Potentialausgleich durch den Anschluss metallener Einrichtungen wie Elektronik-Schränke, Kabeltrag-Konstruktionen, Rohrleitungen, etc. an die Bewehrung deutlich verbessert. - Andererseits kann bei größeren Gebäuden die elektromagnetische Schirmwirkung durch die elektrische Überbrückung von vorhandenen Dehnfugen bei Stahlbetonbauten optimiert werden. Diese Dehnfugen sind teilweise nur unzureichend überbrückt, so dass bei Blitzeinschlag in das betreffende oder ein benachbartes Gebäude an Kabelstrecken, die über die Dehnfuge hinwegführen, rel. hohe Spannungen induziert werden können [2, 3]. Die sich um das gesamte Gebäude herumziehende oder zwischen zwei Gebäuden befindliche Dehnfuge muss deshalb im Abstand von maximal einigen Metern überbrückt werden. Im Falle von Blitzschutz-Ertüchtigungen in vorhandenen Gebäuden wird bisher an jeder geplanten Anschlussstelle die Bewehrung großflächig (∅ wenige 10 cm) freigelegt, dort ein elektrischer Anschluss zu dem Bewehrungsstab hergestellt, z.B. mittels eines Erdungsfestpunkts, und dann die Betonoberfläche wieder geschlossen. Je nach prognostizierter Strombelastung wird teilweise versucht, den über den Anschluss fließenden Strom bereits auf mehrere Bewehrungsstäbe zu verteilen. Dazu sind entweder die kreuzenden Stäbe zu verschweißen oder es sind direkt Anschlüsse an zwei Bewehrungsstäbe herzustellen. All dieses bedeutet einen hohen Aufwand bei der Freilegung der Bewehrung und auch wieder bei der Schließung der entstandenen Betonlöcher. Es soll deshalb hier untersucht werden, ob es beispielsweise zum Zwecke des Blitzschutz-Potentialausgleichs und auch zur Überbrückung von Dehnfugen ausreichend ist, den Anschluss an die Bewehrung nach einfachen Verfahren nur jeweils an einen Bewehrungsstab herzustellen. Damit würde der finanzielle und administrative Aufwand an Betonarbeiten deutlich reduziert. Die hier dargestellten Verfahren sind dabei insbesondere für den Einsatz bei Blitzschutz-Ertüchtigungen in bestehenden Gebäuden vorgesehen. Abschließend sollen deshalb die Möglichkeiten zur Prüfung korrekter Anschlüsse, die Grenzen der Verfahren sowie auch die Grenzen der Anwendbarkeit bei Neuanlagen diskutiert werden.
Bauliche Anlagen mit Stahlkonstruktionen (bzw. auch Stahlbetonskelett- Konstruktionen) und metallenen Wänden sind bereits in sehr großer Zahl errichtet. Dazu gehören kleinere bis größere Lagerhallen ebenso wie Einkaufszentren. Sie zeichnen sich durch große Flexibilität, einfache Planung, kurze Bauzeit und rel. geringe Kosten aus. Auch in der nahen Zukunft ist deshalb mit Planung und Errichtung weiterer solcher baulicher Anlagen zu rechnen. Abhängig von der Nutzung der Hallen sind auch mehr oder weniger umfangreiche elektrische und elektronische Systeme vorhanden, die wichtige Funktionen sicherstellen müssen. Der Blitzschutz für diese baulichen Anlagen sollte sich also nicht nur im „klassischen“ Gebäude-Blitzschutz nach DIN V 0185-3 VDE V 0185 Teil 3 [1] erschöpfen; ein Ergänzung hin zu einem sinnvollen Grundschutz der elektrischen und elektronischen Systeme nach DIN V 0185-4 VDE V 0185 Teil 4 [2] ist anzuraten. Im folgenden Beitrag wird ein Konzept vorgestellt, mit dem ein hochwertiger Blitzschutz sowohl der baulichen Anlage und der darin befindlichen Personen, als auch der elektrischen und elektronischen Systeme verwirklicht werden kann. Insbesondere bei großflächigen Hallen stellen sich dabei besondere Anforderungen. Das Konzept und die zugehörigen blitzschutz-technischen Maßnahmen können drei Hauptbereichen zugeordnet werden: - Äußerer Blitzschutz; - Innerer Blitzschutz; - weitergehende besondere Maßnahmen. Das Konzept sowie die Maßnahmen werden allgemein beschrieben und teilweise anhand einer ausgeführten Anlage mit Fotos beispielhaft dokumentiert.
Lightning protection design of a renewable energy hybrid-system without power mains connection
(2001)
In the year 2000 a direct lightning strike to the hybridsystem without power mains connection VATALI on the Greek island Crete results in the destruction and damage of some mechanical and electrical components. The hybrid-system VATALI was not lightning protected at that time. The hardware damage costs are approx. 60,000 €. The exposed site of the hybrid-system on top of a mountain was and still is the reason for a high risk of lightning strikes. Also in the future further lightning strikes have to be taken into consideration. In the paper a fundamental lightning protection design concept for renewable energy hybrid-systems without power mains connection and protection measures against direct strikes and overvoltages are shown in detail. The design concept was realized exemplarily for the hybrid-system VATALI. The hardware costs for the protection measures were about 15,000 €. About 50% of the costs are due to protection measures against direct strikes, 50% are due to overvoltage protection. Future extensions, new installations, or modifications have to be included into the lightning protection design concept of the hybrid-system.
In the paper a lightning protection design concept for renewable energy hybrid-systems without power mains connection is described. Based on a risk analysis protection measures against direct strikes and overvoltages are shown in an overview. The design concept is realized exemplarily for the hybrid-system VATALI on the Greek island Crete. VATALI, not lightning protected at that time, was a victim of a lightning strike in the year 2000 causing destructions and damages of some mechanical and electrical components with costs of approx. 60.000 €. The hardware costs for the protection measures were about 15.000 €: about 50% of the costs are due to protection measures against direct strikes, 50% are due to overvoltage protection.
In the paper the results obtained from experiments at a modelled reinforced building in case of a direct lightning strike are compared with calculations. The comparison includes peak values of the magnetic field Hmax, its derivative (dH/dt)max and of induced voltages umax in typical cable routings. The experiments are performed at a 1:6 scaled building and the results are extrapolated using the similarity relations theory. The calculations are based on the approximate formulae given in IEC 62305-4 and have to be supplemented by a rough estimation of the additional shielding effect of a second reinforcement layer. The comparison shows, that the measured peak values of the magnetic field and its derivative are mostly lower than the calculated. The induced voltages are in good agreement. Hence, calculations of the induced voltages based on IEC 62305-4 are a good method for lightning protection studies of buildings, where the reinforcement is used as a grid-like electromagnetic shield.
In the presented paper data collected from the field related to damage statistics of electrical and electronic apparatus in household are reported and investigated. These damages (total number approx. 74000 cases), registered by five German insurance companies in 2005 and 2006, were adviced by customers as caused by lightning overvoltages. With the use of stochastical methods it is possible, to reasses the collected data and to distinguish between cases, which are with high probability caused by lightning overvoltages, and those, which are not. If there was an indication for a direct strike, this case was excluded, so the focus was only on indirect lightning flashes, i.e. only flashes to ground near the structure and flashes to or nearby an incoming service line were investigated. The data from the field contain the location of damaged apparatus (residence of the policy holder) and the distances of the nearest cloud-to-ground stroke to the location of the damage registered by the German lightning location network BLIDS at the date of damage. The statistical data along with some complementary numerical simulations allow to verify the correspondence of the Standards rules used for IEC 62305-2 with the field data and to define some correction needs. The results could lead to a better understanding whether a damage reported to an insurance company is really caused by indirect lightning, or not.
[Paper of the X International Symposium on Lightning Protection 9th - 13th November, 2009 - Curitiba, Brazil. 6 pages] The international standard IEC 62305-3, published in 2006, requires as an integral part of the lightning protection system (LPS) the consideration of a separation distance between the conductors of the LPS and metal and electrical installations inside the structure to be protected. IEC 62305-3 gives two different methods for this calculation: a standard, simplified approach and a more detailed approach, which differ especially regarding the treatment of the current sharing effect on the LPS conductors. Hence, different results for the separation distance are possible, leading to some discrepancies in the use of the standard. The standard approach defined in the main part (Clause 6.3) and in Annex C of the standard in some cases may lead to a severe oversizing of the required separation distance. The detailed approach described in Annex E naturally gives more correct results. However, a calculation of the current sharing amongst all parts of the air-termination and downconductor network is necessary, in many cases requiring the use of network analysis programs. In this paper simplified methods for the assessment of the current sharing are presented, which are easy to use as well as sufficiently adequate.
Die neue Vornorm VDE V 0185 Teil 2 „Risikomanagement: Abschätzung des Schadensrisikos für bauliche Anlagen“ [1] ist seit November 2002 gültig. Sie ermöglicht nicht nur die Ermittlung der Schutzklasse eines Blitzschutzsystems, sondern auch die Untersuchung zur Notwendigkeit anderer Schutzmaßnahmen gegen Blitzeinwirkungen (Überspannungsschutzgeräte in Unterverteilern und/oder an Endgeräten, Schirmung des Gebäudes und/oder interner Räume, Potentialsteuerung, Brandmelde- und Feuerlöscheinrichtungen, etc.) nach objektiven Kriterien und damit in einer für alle Beteiligten grundsätzlich nachvollziehbaren Art und Weise. Dass eine solche Analyse rel. komplex sein muss und der intensiven Beschäftigung bedarf, ist deshalb nicht verwunderlich. Die Komplexität des Verfahrens sollte allerdings nicht dazu führen, die Vornorm als Ganzes abzulehnen. Die Vornorm beruht auf dem Stand der Diskussion im internationalen Normengremium IEC TC81 WG9 Ende des Jahres 2000. Integriert wurden einige nationale Besonderheiten, die aus Sicht des zuständigen Normenkomitees DKE K251 erforderlich erschienen. In Deutschland konnten und können nun erste breite Erfahrungen in der Anwendung dieser Risikoanalyse gesammelt werden; in anderen Ländern ist dies noch nicht möglich. Diese Erfahrungen können dann, nach Diskussion im nationalen Rahmen, in die internationale Normenarbeit eingebracht werden. Im folgenden Beitrag sollen einige, seit Erscheinen der Vornorm oft wiederkehrende Fragen dargestellt und Lösungsvorschläge vorgestellt werden. Dabei wird auch auf die Tendenzen im internationalen Normengremium IEC TC81 WG9 eingegangen, d.h. auf den aktuellen Entwurf zur IEC 62305-2 [3]. Die Lösungsvorschläge werden begründet, sind allerdings weitestgehend subjektive Meinung des Autors. Für übliche bauliche Anlagen ist die Anwendung der Vornorm rel. einfach möglich. Auch für spezielle Fälle können die darin festgelegten Verfahren herangezogen werden; allerdings sind dann einige weiterführende Überlegungen notwendig, die der Planer von Blitzschutzsystemen durchführen muss. Anhand zweier Beispiele soll die Anwendung der VDE V 0185 Teil 2 auf solche speziellen Fälle dargestellt werden.
Ein vorausschauendes Risikomanagement beinhaltet, Risiken für das Unternehmen zu kalkulieren. Es liefert Entscheidungsgrundlagen, um diese Risiken zu begrenzen und es macht transparent, welche Risiken sinnvollerweise über Versicherungen abgedeckt werden sollten. Beim Versicherungsmanagement ist jedoch zu bedenken, dass zur Erreichung bestimmter Ziele Versicherungen nicht immer geeignet sind (z.B. Erhaltung der Lieferfähigkeit). Eintrittswahrscheinlichkeiten bestimmter Risiken lassen sich durch Versicherungen nicht verändern. Bei Unternehmen, die mit umfangreichen elektronischen Einrichtungen produzieren oder Dienstleistungen erbringen (und das sind heutzutage wohl die meisten), muss auch das Risiko durch Blitzeinwirkungen besondere Berücksichtigung finden. Dabei ist zu beachten, dass der Schaden aufgrund der Nicht-Verfügbarkeit der elektronischen Einrichtungen und damit der Produktion bzw. der Dienstleistung und ggf. der Verlust von Daten den Hardware-Schaden an der betroffenen Anlage oft bei weitem übersteigt. Im Blitzschutz gewinnt innovatives Denken in Schadensrisiken langsam an Bedeutung. Risikoanalysen haben die Objektivierung und Quantifizierung der Gefährdung von baulichen Anlagen und ihrer Inhalte durch direkte und indirekte Blitzeinschläge zum Ziel. Seinen Niederschlag hat dieses neue Denken in der neuen deutschen Vornorm DIN V 0185-2 VDE V 0185 Teil 2 [1] gefunden. Die hier vorgegebene Risikoanalyse gewährleistet, dass ein für alle Beteiligten nachvollziehbares Blitzschutz-Konzept erstellt werden kann, das technisch und wirtschaftlich optimiert ist, d.h. bei möglichst geringem Aufwand den notwendigen Schutz gewährleisten kann. Die sich aus der Risikoanalyse ergebenden Schutzmaßnahmen sind dann in den weiteren Normenteilen der neuen Reihe VDE V 0185 [2, 3] detailliert beschrieben.
Alle Unternehmen sind vielfältigen Risiken ausgesetzt, die Finanz- und Betriebsbereiche einschließlich Dienstleistungen betreffen können. Die Firmen müssen üblicherweise Risiken eingehen, um im Wettbewerb bestehen zu können. Entscheidend ist, dass man sich über die Risiken bewusst ist, diese einschätzen und kontrollieren kann. Falsche Einschätzungen, Versäumnisse und Fehlentscheidungen können empfindliche finanzielle Schäden bis hin zum Totalverlust nach sich ziehen. Ein effektives Risikomanagement ist heute als wichtiger Sicherheitsfaktor anzusehen und sollte zur strategischen Unternehmensführung gehören. Ein vorausschauendes Risikomanagement beinhaltet, Risiken für das Unternehmen zu kalkulieren. Es liefert Entscheidungsgrundlagen, um diese Risiken zu begrenzen und es macht transparent, welche Risiken sinnvollerweise über Versicherungen abgedeckt werden sollten. Beim Versicherungsmanagement ist jedoch zu bedenken, dass zur Erreichung bestimmter Ziele Versicherungen nicht geeignet sind (z.B. Erhaltung der Lieferfähigkeit). Eintrittswahrscheinlichkeiten bestimmter Risiken lassen sich durch Versicherungen nicht verändern. Bei Unternehmen, die mit umfangreichen elektronischen Einrichtungen produzieren oder Dienstleistungen erbringen (und das sind heutzutage wohl die meisten), muss auch das Risiko durch Blitzeinwirkungen besondere Berücksichtigung finden. Dabei ist zu beachten, dass der Schaden aufgrund der Nicht-Verfügbarkeit der elektronischen Einrichtungen und damit der Produktion bzw. der Dienstleistung und ggf. der Verlust von Daten den Hardware-Schaden an der betroffenen Anlage oft bei weitem übersteigt. Im Blitzschutz gewinnt innovatives Denken in Schadensrisiken langsam an Bedeutung. Risikoanalysen haben die Objektivierung und Quantifizierung der Gefährdung von baulichen Anlagen und ihrer Inhalte durch direkte und indirekte Blitzeinschläge zum Ziel. Seinen Niederschlag hat dieses neue Denken in der neuen deutschen Norm DIN V 0185-2 VDE V 0185 Teil 2 gefunden. Die hier vorgegebene Risikoanalyse gewährleistet, dass ein für alle Beteiligten nachvollziehbares Blitzschutz-Konzept erstellt werden kann, das technisch und wirtschaftlich optimiert ist, d.h. bei möglichst geringem Aufwand den notwendigen Schutz gewährleisten kann. Die sich aus der Risikoanalyse ergebenden Schutzmaßnahmen sind dann in den weiteren Normenteilen der neuen Reihe VDE V 0185 detailliert beschrieben.
Hydrophobic magnetic nanoparticles (NPs) consisting of undecanoate-capped magnetite (Fe3O4, average diameter ca. 5 nm) are used to control quantized electron transfer to surface-confined redox units and metal NPs. A two-phase system consisting of an aqueous electrolyte solution and a toluene phase that includes the suspended undecanoatecapped magnetic NPs is used to control the interfacial properties of the electrode surface. The attracted magnetic NPs form a hydrophobic layer on the electrode surface resulting in the change of the mechanisms of the surface-confined electrochemical processes. A quinone-monolayer modified Au electrode demonstrates an aqueous-type of the electrochemical process (2e-+2H+ redox mechanism) for the quinone units in the absence of the hydrophobic magnetic NPs, while the attraction of the magnetic NPs to the surface results in the stepwise single-electron transfer mechanism characteristic of a dry nonaqueous medium. Also, the attraction of the hydrophobic magnetic NPs to the Au electrode surface modified with Au NPs (ca. 1.4 nm) yields a microenvironment with a low dielectric constant that results in the single-electron quantum charging of the Au NPs.
Entwicklung eines Kletterroboters zur Diagnose und Instandsetzung von Windenergieanlagen (SMART)
(2016)
Pandaboard, TurtleBot, Kinect und Co. : Low-Cost Hardware im Lehreinsatz für die mobile Robotik.
(2012)
Mit freundlicher Genehmigung der Autoren und des Oldenbourg Industrieverlags https://www.oldenbourg-industrieverlag.de/de/9783835633223-33223 erschienen als Beitrag im Tagungsband zur AALE-Tagung 2012. 9. Fachkonferenz 4.-5. Mai 2012, Aachen, Fachhochschule. ISBN 9783835633223 S 8-1 S. 229-238 Original-Abstract des Autors: "Die mobile Robotik wird durch den Einsatz von Low-Cost Hardware einem breiten Publikum zugänglich. Bis vor kurzem basierte eine erschwingliche Hardware meist auf Mikrocontrollern mit den entsprechenden Leistungseinschränkungen z.B. im Bereich der Bildverarbeitung. Die Wahrnehmung einer 3D-Umgebung und somit die Möglichkeit zur autonomen Navigation wurde mit relativ kostenintensiver Hardware, z.B. Stereo-Vision-Systemen und Laserscannern gelöst. Die zur Auswertung der Sensorik notwendige Rechenleistung stand - entweder aufgrund des Stromverbrauchs oder der Performance meist für mobile Plattformen (lokal) - nicht zur Verfügung. Durch Einsatz von leistungsfähigen Prozessoren aus dem Bereich der Mobilgeräte (Smartphones, Tablets) und neuartigen Sensoren des Consumer-Bereichs, wie der Kinect, können mobile Roboter kostengünstig für den Einsatz in der Lehre aufgebaut werden.
Electromechanical model of hiPSC-derived ventricular cardiomyocytes cocultured with fibroblasts
(2018)
The CellDrum provides an experimental setup to study the mechanical effects of fibroblasts co-cultured with hiPSC-derived ventricular cardiomyocytes. Multi-scale computational models based on the Finite Element Method are developed. Coupled electrical cardiomyocyte-fibroblast models (cell level) are embedded into reaction-diffusion equations (tissue level) which compute the propagation of the action potential in the cardiac tissue. Electromechanical coupling is realised by an excitation-contraction model (cell level) and the active stress arising during contraction is added to the passive stress in the force balance, which determines the tissue displacement (tissue level). Tissue parameters in the model can be identified experimentally to the specific sample.
"[...] Der erste Teil des Vortags konzentriert sich auf die bei Ericsson gemachten Erfahrungen. Welche Muster wurden identifiziert, für welche Tests wurden sie eingesetzt. Wie werden diese Muster verwendet, wie werden sie beschrieben und spezifiziert. Und schließlich, wie entsteht eine Art Standardisierung, in der das Wissen über diese Muster als Organisationswissen zur Verfügung steht.
Im zweiten Teil des Vortrags werden die bei Ericsson gemachten Erfahrungen verallgemeinert. Die bei Ericsson verwendeten Muster werden auf allgemeine Strukturen übertragen (z.B. Client-Server). Es wird gezeigt, wie die Zuordnung von Testverfahren auf Netzwerkmuster auch in anderen Domänen verwendet wird und welche Vorteile sich damit erzielen lassen."
Quelle: http://www.qs-tag.de/fileadmin/software-qs-tag/public/2007/abstract_jacobs.shtml
Wireless CAN
(2018)
Das vorgestellte System zu Wireless CAN bietet die Möglichkeit, CAN kabellos zu übertragen. Beide vorgestellten und entwickelten Konzepte funktionieren korrekt und ermöglichen den Auf-bau von kabellosen CAN Schnittstellen. Durch den kleinen Aufbau kann diese Technologie auch für eingebettete Systeme verwendet werden. Zudem bietet dieser Ansatz die Möglichkeit, durch die Entwicklung von geeigneten ICs die Größe des Systems bis auf Bauteilgröße zu reduzieren, um eine noch bessere Integration in eingebettete Systeme zu ermöglichen. Dadurch wird die Technologie attraktiv für Einsatzgebiete, wo die oben aufgelisteten Vorteile zum Tragen kommen können. Diese Einsatzgebiete können sowohl im Automobil als auch im Industriebereich liegen.
Mischwassereinleitungen in Gewässer nach BWK Merkblatt M3 - Vorteile des detaillierten Nachweises
(2009)
Dipl.-Ing. Brigitte Huber und Dr.-Ing. Gerd Demny - Wasserverband Eifel Rur, Düren. 16 Seiten ( S. 59-74). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Zusammenfassung [der Autoren] Für das städtisch geprägte Einzugsgebiet des Broicher Baches sind ein vereinfachter und ein detaillierter Nachweis nach BWK-M3 durchgeführt worden. Dabei zeigt sich, dass die Methodik des vereinfachten Nachweises nicht geeignet ist, um eine realitätsnahe Abbildung der einleitungsgeprägten Abflüsse des Gewässers zu erhalten. Dies ist insbesondere auf die Vernachlässigung von Wellentranslation und -retention im Gerinne zurückzuführen. Die dadurch entstehende Fehleinschätzung der Abflussverhältnisse versperrt den Blick auf eine situationsgerechte Maßnahmenplanung. Der mit Hilfe eines NA-Modells geführte detaillierte Nachweis ist zwar in der Erstellung aufwändiger, zeichnet aber ein reales Bild der Abflusserhöhung durch Einleitungen. Mit Hilfe des Modells können die wesentlichen Einflüsse schnell lokalisiert und zielführende Maßnahmenvarianten identifiziert werden. In dem hier vorgestellten Beispiel des Broicher Baches können die ursprünglich identifizierten acht Maßnahmen auf eine reduziert werden. Das Gesamtvolumen der erforderlichen Rückhaltungen wird um die Hälfte verringert. Der Vergleich beider Nachweismethoden legt nach Ansicht der Autoren nahe, den vereinfachten Nachweis höchstens für eine erste Einschätzung des Maßnahmenbedarfs anzuwenden. Die Maßnahmenidentifikation und -dimensionierung sollte grundsätzlich mit der detaillierten Nachweismethode durchgeführt werden, die auf einem entsprechenden NA-Modell basiert. Dies gilt insbesondere für Gewässerstrecken, deren Abfluss durch mehrere, hintereinander liegende Einleitungsstellen geprägt ist.
Dipl.-Ing. Hartmut Hoevel - Erftverband, Bergheim. 3 Seiten (S. 75-77). Beitrag zum 2. Aachener Softwaretag in der Wasserwirtschaft <2, 2009, Aachen> Die Erft ist ein linker Nebenfluss des Rheins. Der Fluss ist durch eingeleitetes Sümpfungswasser aus dem rheinischen Braunkohletagebau hinsichtlich der Wassermenge und der Temperatur stark belastet. Die vorgestellten Überlegungen betreffen die Fragen: 1. Wie soll die Erft im Jahr 2045, also nach dem voraussichtlichen Ende der Tagebauaktivitäten im Rheinischen Braunkohlerevier und damit einhergehender Beenigung der Sümpfungswassereinleitung, aussehen? 2. Wie schnell und auf welche Weise soll die Umgestaltung der Erft vonstatten gehen?
Das Oberflächenabflussmodell von Keser und die Grenzwertmethode : Die Abflussbildung im Vergleich.
(2007)
Dipl.-Ing. Rudolf Herzog , Rehm Software Berg / Ravensburg. 9 S. (S. 94-102). Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft a1, 2007, Aachen>. Zusammenfassung [des Autors] Die grundlegenden Ansätze der beiden Modelle sind ähnlich. Der hauptsächliche Unterschied liegt darin, dass die Grenzwertmethode die Angabe einer Bodenart erfordert, die ihrerseits wieder Probleme verursachen kann. Es kann nicht davon ausgegangen werden, dass die Bodenarten homogen anliegen. Die ersatzweise Vorgabe einer für alle Einzugsgebiete einheitlichen Bodenart hilft da nicht wirklich weiter. Es stellt sich vielmehr die Frage, ob der zusätzliche Aufwand eine signifikante Verbesserung des Ereignisses zur Folge hat. Der Vorteil der Grenzwertmethode liegt auf der Hand: Die Parameterwahl ermöglicht eine flexible Steuerung des Modells, in die Abflussbildung kann differenziert eingegriffen werden. Das NA-Geschehen kann weitgehend kalibriert werden. Es ist allerdings auch zu bedenken, dass die Flexibilität des Modells risikobehaftet ist - die Abflussbildung kann nach Belieben beeinflusst werden. Fazit: Flexibel in der Anwendung, bei NA-Messung empfehlenswert. Im Allgemeinen geringere Abflussmengen als Keser. Die Blackbox von Keser ist zwar nicht steuerbar, entzieht sich damit aber auch Wissensdefiziten und Manipulationseinflüssen. Über Parameter und deren Auswirkungen muss nicht spekuliert werden. Wenn mehrere Personen mit dem Modell von Keser arbeiten, ergeben sich im Gegensatz zur Grenzwertmethode zwangsweise dieselben Ergebnisse - gleiche geometrische Oberflächendaten vorausgesetzt. Außerdem kommt Keser ohne die Bodenart aus. Fazit: Bei BFG >20%, einfache Handhabung, geringer Aufwand. Gegenüber der Grenzwertmethode (mittlere Verhältnisse) jedoch etwas höhere Abflüsse. Das Programmpaket HYKAS der Fa. Rehm Software ermöglicht u.a. den Nachweis von Kanalnetzen und bietet in diesem Zusammenhang beide Modellansätze zur Auswahl an. Der Programmanwender kann damit eine am Datenbestand bzw. an den Vorgaben des Auftraggebers ausgerichtete Modellauswahl treffen. Die realitätsnahe Ermittlung der Oberflächenabflüsse ist kompliziert. Weitere Unwegsamkeiten warten nach der Abflussbildung bei der Abflusskonzentration auf: Es ist z.B. die Festlegung der Fließlänge auf der Oberfläche erforderlich... Es ist noch ein weiter Weg bis zur Kläranlage.
Geräuschminderung und Leichtbau in Leistungsgetrieben durch den Einsatz von Werkstoffverbunden
(2007)
Abstracts of the ACHEMA 2000 - International Meeting on Chemical Engineering, Environmental Protection and Biotechnology, May 22 - 27, 2000. Frankfurt am Main. Achema 2000 : special edition / Linde. [Ed.: Linde AG. Red.: Volker R. Leski]. - Wiesbaden : Linde AG, 2000. - 56 p. : Ill., . - pp: 79 - 81
Abstract of the authors: In many areas of computer science ontologies become more and more important. The use of ontologies for domain modeling often brings up the issue of ontology integration. The task of merging several ontologies, covering specific subdomains, into one united ontology has to be solved. Many approaches for ontology integration aim at automating the process of ontology alignment. However, a complete automation is not feasible, and user interaction is always required. Nevertheless, most ontology integration tools offer only very limited support for the interactive part of the integration process. In this paper, we present a novel approach for the interactive integration of ontologies. The result of the ontology integration is incrementally updated after each definition of a correspondence between ontology elements. The user is guided through the ontologies to be integrated. By restricting the possible user actions, the integrity of all defined correspondences is ensured by the tool we developed. We evaluated our tool by integrating different regulations concerning building design.
Dipl.-Ing. Dirk Hecker von der Ingenieurgesellschaft Tuttahs & Meyer in Aachen. Vortrag gehalten beim 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> 27 S. (S. 28-54) Zusammenfassung [des Autors]: Nach den spektakulären Hochwasserereignissen an Rhein, Elbe und Donau hat die Deutsche Vereinigung für Wasserwirtschaft, Abwasser und Abfall e. V. (DWA) einen Fachausschuss zur Erstellung eines Merkblattes M 103 „Hochwasserschutz für Abwasseranlagen“ berufen. Das Merkblatt zeigt in den Kapiteln Konzeption, Planungsgrundsätze und Hochwassermanagement eine strukturierte Vorgehensweise zur bestmöglichen Vorsorge zum Schutz der Abwasseranlagen im Hochwasserfall. Entsprechend den Forderungen des im Jahr 2005 verabschiedeten Gesetzes zur Verbesserung des vorbeugenden Hochwasserschutzes, floss in das Wasserhaushaltsgesetz unter anderem die allgemeine Verpflichtung jedes potentiell vom Hochwasser Betroffenen ein, geeignete Schutzmaßnahmen zur Schadensminimierung zu treffen. Hierbei werden speziell die Wasserversorgung und die Abwasserbeseitigung erwähnt. Im DWA-M 103 wir detailliert dargestellt wie und mit welchem Aufwand die Abwasseranlagen zu überprüfen sind und wie hierzu ein Hochwasserschutzkonzept erstellt werden kann. Zusätzlich werden Hinweise für die Planung von Abwasseranlagen in hochwassergefährdeten Bereichen gegeben, die den störungsfreien Betrieb im Hochwasserfall gewährleisten sollen. Schlussendlich werden das Hochwassermanagement und der Betrieb dargestellt und hier wichtige Anregungen gegeben im Ernstfall ausreichend vorbereitet zu sein. Das DWA-M 103 richtet sich in erster Linie an die Betreiber und Planer von Abwasseranlagen. Jedoch werden hier auch, gerade durch die Vielzahl von Checklisten, Kommunen Denkanstöße und Anregungen für die Hochwasservorsorge/-schutz von öffentlichen Gebäuden und Einrichtungen gegeben.
IT-Sicherheit im Automobil
(2014)
The Passivhaus building standard is a concept developed for the realization of energy-efficient and economical buildings with a simultaneous high utilization comfort under European climate conditions. Major elements of the Passivhaus concept are a high thermal insulation of the external walls, the use of heat and/or solar shading glazing as well as an airtight building envelope in combination with energy-efficient technical building installations and heating or cooling generators, such as an efficient energy-recovery in the building air-conditioning. The objective of this research project is the inquiry to determine the parameters or constraints under which the Passivhaus concept can be implemented under the arid climate conditions in the Arabian Peninsula to achieve an energy-efficient and economical building with high utilization comfort. In cooperation between the Qatar Green Building Council (QGBC), Barwa Real Estate (BRE) and Kahramaa the first Passivhaus was constructed in Qatar and on the Arabian Peninsula in 2013. The Solar-Institut Jülich of Aachen University of Applied Science supports the Qatar Green Building Council with a dynamic building and equipment simulation of the Passivhaus and the neighbouring reference building. This includes simulation studies with different component configurations for the building envelope and different control strategies for heating or cooling systems as well as the air conditioning of buildings to find an energetic-economical optimum. Part of these analyses is the evaluation of the energy efficiency of the used energy recovery system in the Passivhaus air-conditioning and identification of possible energy-saving effects by the use of a bypass function integrated in the heat exchanger. In this way it is expected that on an annual basis the complete electricity demand of the building can be covered by the roof-integrated PV generator.
Physische Prototypen, also Anschauungs- und Funktionsmodelle nach den generativen oder Rapid Prototyping (RP) Verfahren haben sich in diesem Zusammenhang vor allem als Hilfsmittel zur effektiven Kommunikation und zur Evaluierung von Produkteigenschaften einen festen Platz in der Produktentstehung erworben. Die positiven Effekte der etablierten RP Verfahren sind unumstritten. Einfachere, schnellere und wirtschaftlichere Maschinen (Prototyper, Fabrikator), vor allem auch für die Büroumgebung, geben neue Impulse im Sinne der Optimierung der heutigen Verfahren. Eine neue Dimension verspricht die Option „Farbe“ der bisher fast ausschließlich monochromen Modelle. Ist Farbe nur „nice to have“ oder welchen Effekt haben farbige Modelle als Werkzeug von Konstrukteuren und Produktenwicklern? Welche Perspektiven bietet „Farbe“ darüber hinaus?
Table of contents 1. Introduction 2. Multi-level Technology Transfer Infrastructure 2.1 Level 1: University Education – Encourage the Idea of becoming an Entrepreneur 2.2 Level 2: Post Graduate Education – Improve your skills and focus it on a product family. 2.3 Level 3: Birth of a Company – Focus your skills on a product and a market segment. 2.4 Level 4: Ready to stand alone – Set up your own business 2.5 Level 5: Grow to be Strong – Develop your business 2.6 Level 6: Competitive and independent – Stay innovative. 3. Samples 3.1 Sample 1: Laser Processing and Consulting Centre, LBBZ 3.2 Sample 2: Prototyping Centre, CP 4. Funding - Waste money or even lost Money? 5. Conclusion
GaAs-based Gunn diodes with graded AlGaAs hot electron injector heterostructures have been developed under the special needs in automotive applications. The fabrication of the Gunn diode chips was based on total substrate removal and processing of integrated Au heat sinks. Especially, the thermal and RF behavior of the diodes have been analyzed by DC, impedance and S-parameter measurements. The electrical investigations have revealed the functionality of the hot electron injector. An optimized layer structure could fulfill the requirements in adaptive cruise control (ACC) systems at 77 GHz with typical output power between 50 and 90 mW.
Dr.-Ing. Lothar Fuchs vom itwh Hannover mit 13 Seiten (S. 57-69) Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1, 2007, Aachen> Zusammenfassung [des Autors] Die wesentlichen technischen Probleme der Kanalnetzbewirtschaftung sind gelöst. Der Markt bietet bewährte Messgeräte, Steuerungseinrichtungen, Datenübertragungs-, Regler- und Rechnersysteme, die sich für den Einsatz in der Stadtentwässerung eignen. Mit den heute existierenden Simulationsmodellen können die Auswirkungen von Bewirtschaftungssystemen abgeschätzt werden, bevor diese implementiert werden. Die für Bewirtschaftungssysteme notwendige Ausrüstung ist eine andere, als die traditionell in der Stadtentwässerung übliche. Sie erfordert in jedem Fall mehr und teureren Wartungsaufwand sowie anders ausgebildetes Personal. Bei einem Kostenvergleich mit konventionellen (d.h. ungesteuerten) Systemen muß die umfassende Information und Kontrolle des bewirtschafteten Systems berücksichtigt werden. Die permanente Information über den Betriebszustand sowie die in allen existierenden Bewirtschaftungssystemen erreichten Verminderungen von Regenentlastungen und (in geringerem Maße) hydraulischen Überlastungen lassen es geraten erscheinen, Kanalnetzbewirtschaftung nicht nur unter dem Gesichtspunkt der höheren Betriebskosten, sondern auch denen der möglich Einsparungen von Investitionen und der höheren Effizienz zu beurteilen. Analog lässt sich zeigen, dass bewirtschaftete Systeme kleiner ausgelegt werden können und dennoch die gleiche Effizienz besitzen wie größer dimensionierte, statisch wirkende Systeme.
On 1st January 1998, the German telecom market was fully liberalised. Since then genuine competition between market participants has developed, based on a comprehensive legal and regulatory framework that provides for safeguards against unfair competition and market power by Deutsche Telekom. Today, about 10 years after the liberalisation of the telecommunications sector a revision of this regulatory approach has become necessary because at least on three dimensions the situation is quite different from the one 10 years ago: First, with numerous established alternative operators in the market monopolies have been successfully challenged and competition introduced. Second, not only is Cable TV becoming in large parts of Germany a viable alternative for the provision of broadband services but also mobile services are becoming increasingly a substitute for fixed services. Last but not least there are important technological changes under way, requiring huge investments in infrastructure upgrades for next generation networks. In the light of these new developments the question is to which extent the current regulatory approach of severe ex-ante regulatory intervention is still appropriate. Is any part of the network of the former incumbent still a bottleneck? A more light handed regulatory approach might be the right response to this new situation. The paper is organised as follows: The first section will briefly examine the economic rationale for regulating network access. Based on the assumption that regulation is always necessary when bottlenecks exist regulatory principles for an efficient network access regime will be derived. The second section compares the situation of the German market in early 1998 with the one of today. Thereby three dimensions will be considered: the degree of competition, the potential for substitution and technological developments. The third section will define some requirements for the future regulation of telecom markets. Proposals will be elaborated how to ensure competitive telecom markets in the light of new economic and technological challenges.
- Wie kam es zu der globalen Finanzkrise? - Wodurch zeichnet sich die Finanzkrise aus? - Wer hat die Finanzkrise verschuldet? - Welche Rolle spielten Spekulanten? - Inwiefern ist die Finanzkrise selbstverschuldet? - Ist die Globalisierung Schuld an den Finanzkrisen in zahlreichen Regionen dieser Welt? - Wie wirkt sich die Finanzkrise auf die Realwirtschaft aus? - Welche Wege bieten sich, aus der Krise herauszukommen?
A key feature of future broadband markets will be diversity of access technologies, meaning that numerous technologies will be exploited for broadband communication. Various factors will affect the success of these future broadband markets, the regulatory policy being one amongst others. So far, a coherent regulatory approach does not exist as to broadband markets. First results of policies so far suggest that less sector-specific regulation is likely to occur. Instead, regulators must ensure that access to networks and services of potentially dominant providers in a relevant broadband market will satisfy requirements for openness and non-discrimination. In this environment the future challenge of regulationg broadband markets will be to set the right incentives for investment into new infrastructures. This paper examines whether there is a need for the regulation of future broadband access markets an if yes, what is the appropriate regulatory tool to do so. Thereby the focus is on the analysis of European broadband markets and the regulatory approaches applied. The first section provides a description of the characteristics of future broadband markets. The second section discusses possible bottlenecks on broadband markets an their regulatory implications. The third section will examine regulatory issues concerning access to broadband networks in more detail. This will be done by comparing the regulatory approaches of European countries and the results in terms of bradband penetration. The final section will give key recommendations for a regulatory strategy on brandband access markets.
Market data for the German telecom market shows that Deutsche Telekom as the former incumbent is constantly loosing shares on all arkets for voice telephony: the market for local calls, the market for long-distance calls and the market for international calls. At the same time prices decline steadily with the latest trend being that operators offer voice services free of charge, the costs of which are covered by a monthly subscription charge. Against this background the paper examines the state of policy and regulatory reform in the telecommunications sector in Germany almost 10 years after the liberalisation of the fixed telecommunications market. Thereby the focus is on the analysis of the competitive conditions that have been established on the German market for voice telephony services. If these retail markets are competitive, there might be a need to remove remaining regulatory provisions. In the new environment of converging markets the future challenge of regulating fixed telecom markets might be to ensure that access to the network and/or services of a potentially dominant provider in a relevant market will satisfy requirements for openness and non-discrimination.
Working paper distributed at 2nd Annual Next Generation Telecommunications Conference 2009, 13th – 14th October 2009, Brussels 14 pages Abstract Governments all over Europe are in the process of adopting new broadband strategies. The objective is to create modern telecommunications networks based on powerful broadband infrastructures". In doing so, they aim for innovative and investment-friendly concepts. For instance, in a recently published consultation paper on the subject the German regulator BNetzA declared that it will take “greater account of … reducing risks, securing the investment and innovation power, providing planning certainty and transparency – in order to support and advance broadband rollout in Germany”. It further states that when regulating wholesale rates it has to be ensured that “… adequate incentives for network rollout are provided on the one hand, while sustainable and fair competition is ensured on the other”. Also an EC draft recommendation on regulated network access is about to set new standards for the regulation of next generation access networks. According to the recommendation the prices of new assets shall be based on costs plus a projectspecific risk premium to be included in the costs of capital for the investment risk incurred by the operator. This approach has been criticised from various sides. In particular it has been questioned whether such an approach is adequate to meet the objectives of encouraging both competition and investment into next generation access networks. Against this background, the concept of “long term risk sharing contracts” has been proposed recently as an approach which does not only incorporate the various additional risks involved in the deployment of NGA infrastructure, but has several other advantages. This paper will demonstrate that the concept allows for competition to evolve at both the retail and wholesale level on fair, objective, non-discriminatory and transparent terms and conditions. Moreover, it ensures the highest possible investment incentive in line with socially desirable outcome. The paper is organised as follows: The next section will briefly outline the importance of encouraging competition and investment in an NGA-environment. The third section will specify the design of long term risk sharing contracts in view of achieving these objectives. The fourth section will examine potential problems associated with the concept. In doing so a way of how to deal with them will be elaborated. The last section will look at arguments against long term risk sharing contracts. It will be shown that these arguments are not strong enough to build a case against introducing such contracts.
To give the exchange of goods and services between the European Union (EU) and the United States (U.S.) new momentum the two parties are currently negotiating the transatlantic free trade agreement Transatlantic Trade and Investment Partnership (TTIP). The aim is to create the largest free trade area in the world. The agreement, once entered into force, will oblige EU countries and the U.S. to further liberalize their markets.
The negotiations on TTIP include a chapter on Electronic Communications/ Telecommunications. The challenge therein will be securing commitments for market access to Electronic Communications services. At the same time, these commitments must reflect the legitimate need for consumer protection issues. The need to reduce Electronic Communications-related non-tariff barriers to trade between the Parties is due to the fact that these markets are heavily regulated. Without transnational rules as to regulations national governments can abuse these regulations to deter the market entry by new (foreign) suppliers. Thus the free trade agreement TTIP affects in many respects regulatory provisions on and access to Electronic Communications markets. The objective of this paper is therefore to examine to what extend the regulatory principles for Electronic Communications markets envisaged under TTIP will result in trade facilitation and regulatory convergence between the EU and the U.S.
As to this question the result of the analysis is that the chapter on Electronic Communications will be an important step towards facilitating trade in Electronic Communications services. At the same time some regulatory convergence will take place, but this convergence will not lead to a (full) harmonization of regulations. Rather the norm, also after TTIP negotiations will have been concluded successfully, will be mutual recognition of different regulatory regimes. Different regulations being the optimal policy response in different market settings will continue to exist. Moreover, it is very unlikely that such regulatory principles for the Electronic Communications sector are a vehicle for a race to the bottom in levels of consumer protection.
Mit freundlicher Genehmigung der Autoren und des Oldenbourg Industrieverlags https://www.oldenbourg-industrieverlag.de/de/9783835633223-33223 erschienen als Beitrag im Tagungsband zur AALE-Tagung 2012. 9. Fachkonferenz 4.-5. Mai 2012, Aachen, Fachhochschule. ISBN 9783835633223 S 5-1 S. 127-135 Es werden Ergebnisse unterschiedlicher Projekte aus dem Bereich der Simulation von Wärmeübertragungsprozessen mit Excel-VBA vorgestellt. - Thermische Behandlung hochviskoser Fruchtzubereitungen, verschiedene Projekte und Kooperationen mit der Zentis GmbH & Co. KG, Aachen (J. Becker, U. Feuerriegel, G. Wersch). - Untersuchung des dynamischen Verhaltens von dampfbeheizten Ethylen-Verdampfern. Projekt mit der TGE Gas Engineering GmbH, Bonn (M. Ecker, U. Feuerriegel, U. Hoffmann, S. Wittenhorst). - Dynamische Simulation des axialen Temperaturverlaufs von elektrisch beheizten Rohrreaktoren. Kooperation mit dem Institut für Chemische Verfahrenstechnik, TU Clausthal (U. Feuerriegel, U. Kunz, M. Pook, S. Wittenhorst).
The main objective of our ROS Summer School series is to introduce MA level students to program mobile robots with the Robot Operating System (ROS). ROS is a robot middleware that is used my many research institutions world-wide. Therefore, many state-of-the-art algorithms of mobile robotics are available in ROS and can be deployed very easily. As a basic robot platform we deploy a 1/10 RC cart that is wquipped with an Arduino micro-controller to control the servo motors, and an embedded PC that runs ROS. In two weeks, participants get to learn the basics of mobile robotics hands-on. We describe our teaching concepts and our curriculum and report on the learning success of our students.
Close interrelations between sound and image are not a mere phenomenon of today’s multimedia technology. The idea of the synthesis of different media lies at the core of the concept of the Gesamtkunstwerk in the second half of the 19th century and it can also be traced back to the synaesthesia debate at the beginning of the 20th century [...].
Dipl.-Ing. Ralf Engels - DHI Wasser und Umwelt GmbH, Syke. 24 S. (S. 70-93) Beitrag zum 1. Aachener Softwaretag in der Wasserwirtschaft <1,2007, Aachen> Einleitung [des Autors] Die hydrodynamische Kanalnetzmodellierung ist ein Standardwerkzeug für die Bemessung von Kanalnetzen. Neben der Berechnung der hydrologischen und hydraulischen Gegebenheiten in einem städtischen Einzugsgebiet gehören auch weiterführende Technologien mittlerweile zum Standard. So können alle steuerbaren Elemente eines Kanalnetzes dynamisch so optimiert werden, dass die Leistungsfähigkeit des Kanalnetzes zusätzlich gesteigert werden kann. Automatische Werkzeuge zur dynamischen hydraulischen Schmutzfrachtberechnung ermöglichen die Erweiterung der Steuerung – insbesondere von Entlastungsanlagen – im Hinblick auf die entlasteten Schmutzfrachten und geben darüber hinaus detaillierte Informationen für den Betrieb der Kläranlage. Weiterführende biologische Prozessmodellierungen ergänzen dieses Themenfeld. GIS Werkzeuge können bei der räumlich differenzierten Modellierung von Kanalnetzen wertvolle Dienste leisten. Die detaillierte Betrachtung einzelner Haltungsflächen in ihrem räumlichen Zusammenhang ist damit ebenso möglich wie eine komplette Verwaltung aller für die Kanalnetzmodellierung notwendigen Daten in einem übersichtlichen grafischen Menü. Die Grenzen der Kanalnetzmodellierung lagen in früheren Zeiten an dessen Rand. Detaillierte Informationen über die Wege des Wassers auf der Geländeoberfläche, an der Schnittstelle zu Vorflutern und in der Interaktion mit Grundwasser waren bisher nicht modelltechnisch bewertbar. Eine dynamische Kopplung verschiedener Modelle zur Darstellung aller relevanten hydraulischen Prozesse ermöglicht eine integrative Betrachtung aller möglichen Wege, die das Wasser in der Stadt nehmen kann (Mark & Djordjevic, 2006). Dieser Beitrag präsentiert den Stand der Technik für die integrierte Modellierung städtischer Überschwemmungen mit Hilfe der Modellkopplung von Oberflächenmodellen und Kanalnetzmodellen.
Mit freundlicher Genehmigung der Autoren und des Oldenbourg Industrieverlags https://www.oldenbourg-industrieverlag.de/de/9783835633223-33223 erschienen als Beitrag im Tagungsband zur AALE-Tagung 2012. 9. Fachkonferenz 4.-5. Mai 2012, Aachen, Fachhochschule. ISBN 9783835633223 S 6-2. S. 165-174 Zusammenfassung der Autoren: "Abschließend kann festgehalten werden, dass die gesamten durchgeführten Überlegungen von den Messergebnissen der Inbetriebnahme positiv bestätigt werden. Es wird durch diese Topologie eine maximale Systemverfügbarkeit garantiert und die Zellen werden optimal betrieben. Ein Blick in die Zukunft für dieses Projekt zeigt viele Erweiterungs- und Optimierungsaufgaben. So muss der DC/DC-Wandler für einen bidirektionalen Betrieb erweitert werden, um einen Rekuperationsbetrieb zu gewährleisten bzw. die Zellen laden zu können. Dadurch können gleichzeitig die Gleichrichterdioden im Sekundärleistungsteil durch IGBTs oder MOSFETs ersetzt werden. Die voll funktionsfähige Version des DC/DC-Wandlers könnte höchstwahrscheinlich direkt auf die Anschlusspole der Zelle montiert werden, wodurch das Gewicht gesenkt wird. Durch die verringerte Verlustleistung in den Zuleitungen könnte der Wirkungsgrad noch einmal gesteigert werden.
Mit freundlicher Genehmigung der Autoren und des Oldenbourg Industrieverlags https://www.oldenbourg-industrieverlag.de/de/9783835633223-33223 erschienen als Beitrag im Tagungsband zur AALE-Tagung 2012. 9. Fachkonferenz 4.-5. Mai 2012, Aachen, Fachhochschule. ISBN 9783835633223 S 2-1 S. 37-46 Original-Abstract der Autoren: "Dieser Artikel beschreibt eine universelle Programmierschnittstelle zur Entwicklung von Motion-Logic Applikationen für industrielle Motion-Controller. Sie ermöglicht die Entwicklung von Software mit modernen Hochsprachen, wie C/C++. Visual Basic, C#, Java, Objective-Cund visuellen Programmiersprachen, wie LabVIEW in Koexistenz mit klassischen Programmiersprachen für speicherprogrammierbare Steuerungen nach IEC 61131-3. Daraus ergeben sich neue Möglichkeiten industrielle Antriebs- und Steuerungssysteme mit ihrem IT-Umfeld zu verbinden."
Recently, the SHARP Corporation, Japan, has developed the world’s first "Plasma Cluster Ions (PCI)" air purification technology using plasma discharge to generate cluster ions. The new plasma cluster device releases positive and negative ions into the air, which are able to decompose and deactivate harmful airborne substances by chemical reactions. Because cluster ions consist of positive and negative ions that normally exist in the natural world, they are completely harmless and safe to humans. The amount of ozone generated by cluster ions is less than 0.01 ppm, which is significantly less than the 0.05-ppm standard for industrial operations and consumer electronics. This amount, thus, has no harming effects whatsoever on the human body. But particular properties and chemical processes in PCI treatment are still under study. It has been shown that PCI in most cases show strongly pronounced irreversible killing effects in respect of airborne microflora due to free-radical induced reactions and can be considered as a potent technology to disinfect both home, medical and industrial appliances.
Summary and Conclusions PCIs were clearly effective in terms of their antibacterial effects with the strains tested. This efficacy increased with the time the bacteries were exposed to PCIs. The bactericidal action has proved to be irreversible. PCIs were significantly less effective in shadowed areas. PCI exposure caused multiple protein damages as observed in SDS PAGE studies. There was no single but multiple molecular mechanism causing the bacterial death.
Recently, SHARP corporation has developed the world’s first "Plasma Cluster Ions® (PCI)" air purification technology, which uses plasma discharge to generate cluster ions. The new Plasma Cluster Device releases positive and negative ions into the air, which are harmless to humans and are able to decompose and deactivate airborne substances by chemical reactions. In the past, phenomenological tests on the efficacy of the PCI air purification technology on microbial cells have been conducted. In most cases, it has been shown that PCI demonstrated strongly pronounced killing effects on microorganisms. However, the particular mechanisms of PCI action still have to be uncovered.
Recently, SHARP corporation has developed the world’s first “Plasma Cluster Ions (PCI)” air purification technology, which uses plasma discharge to generate cluster ions. The new plasma cluster device releases into the air positive and negative ions, which are harmless to humans and are able to decompose and deactivate airborne substances by chemical reactions. A lot of phenomenological tests of the PCI air purification technology on microbial cells have been conducted. And, in most cases, it has been shown that PCI demonstrate strongly pronounced killing effect. Although, the particular mechanisms of PCI action are still not evident. We studied variations in resistance to PCI among gram-positive airborne microorganisms, as well as some dose-dependent, spatial, cultural and biochemical properties of PCI action in respect of Staphylococcus spp, Enterococcus spp, Micrococcus spp.