Refine
Year of publication
- 2000 (245) (remove)
Institute
- Fachbereich Medizintechnik und Technomathematik (65)
- Fachbereich Wirtschaftswissenschaften (37)
- Fachbereich Energietechnik (35)
- INB - Institut für Nano- und Biotechnologien (35)
- Fachbereich Elektrotechnik und Informationstechnik (34)
- Fachbereich Luft- und Raumfahrttechnik (18)
- Fachbereich Bauingenieurwesen (17)
- Fachbereich Chemie und Biotechnologie (12)
- Fachbereich Maschinenbau und Mechatronik (12)
- Solar-Institut Jülich (6)
Document Type
- Article (173)
- Book (42)
- Conference Proceeding (19)
- Part of a Book (4)
- Doctoral Thesis (3)
- Patent (2)
- Report (1)
- Review (1)
Keywords
- Einspielen <Werkstoff> (3)
- Finite-Elemente-Methode (3)
- FEM (2)
- Multimediamarkt (2)
- limit load (2)
- Abluft (1)
- Aluminium (1)
- Ansaugsystem (1)
- Basis Reduktion (1)
- Basis reduction (1)
Nobody ever dies! / 1. ed.
(2000)
Zuerst erschienen in Telekom-Praxis Ausgabe 2000. 24 S. Innovative multimediale Dienste werden durch die Globalisierung und Konvergenz der Märkte, als auch durch Provider-Strategien ausgerichtet. Grundlegende Innovationsfelder sind: Globaler Zugang, Navigation und Intelligenter Inhalt. Die MPEG-Standards - im besonderen MPEG-4 und MPEG-7 - helfen, die oben genannten Forderungen zu erfüllen. Weiterhin ermöglichen sie auch für die Provider und den Kunden eine Zukunftssicherheit zu geben und einen zeitlichen Bestand für innovative Produkte zu sichern. Die Aufwärtkompabilität der MPEG-Standards ermöglicht die Vermeidung von Überschneidung und die Erschließung neuer Dimensionen.
In: Unterrichtsblätter / Deutsche Telekom AG. 53. 2000. 7. S. 326-340. (15 S. ) Die Multimedia-Dienste erhalten durch die Datenreduktion bei der Kompressionstechnologie eine Wirtschaftlichkeit, die den breiteren Einsatz von breitbandigen Diensten erlaubt. Die Dienste benötigen für die verschiedenen Medien nicht mehr so große Übertragungs- und Speicherleistungen. Bei den entwickelten Verfahren, den so genannten MPEG-(Motion Picture Experts Group-)Standards, werden die Video- und Tonsignale in die digitale Ebene überführt und anschließend unrelevante Signalanteile entfernt. Der daraus resultierende Datenstrom benötigt weniger Bandbreite bei der Übertragung zum Endkunden. Die MPEG-Organisation wurde bereits im Jahre 1988 ins Leben gerufen und ist ein gemeinsames Gremium der beiden Organisationen ISO (International Standard Organization) und IEC (International Electrotechnical Commission), welches sich mit der Standardisierung von Kodier- und Kompressionsverfahren für die digitalen Bild-, Video und Audioformate befasst. Mittlerweile sind vier wichtige Standards mit MPEG-1, MPEG-2 und MPEG-4 verabschiedet worden sowie mit MPEG-7 in Vorbereitung. Da die Grundlagen zu MPEG-1, -2 und -Audio bereits in anderen Beiträgen behandelt wurden, werden hier ausschließlich die neuen bzw. aktuellen MPEG-Standards vorgestellt.
In: Unterrichtsblätter / Deutsche Telekom AG. 53. 2000. 11. S. 618-634 (17 S.) Wo man hinblickt: Turbulenzen, Unvorhersagbarkeiten, Unregelmäßigkeiten – kurz Chaos. Ist unsere wissenschaftliche Sichtweise falsch, alle Vorgänge des Kosmos auf die Basis der Ordnung abzubilden? – Nein. Mit Chaos ist nicht Fehlen jeglicher Ordnung und völlig regelloses Durcheinander gemeint, sondern – auf Grund der Vernetztheit der vielen Elemente, die miteinander eine Wechselwirkung haben – die Unberechenbarkeit der Naturprozesse. Die Chaostheorie erlaubt durch die Modellierung weit auseinander liegende Problemfelder miteinander zu verknüpfen, um dann in einem Modell die Zusammenhänge erkennbar zu machen. Mit Hilfe der Chaostheorie werden gesellschaftliche Prozesse abgebildet und dann mit einer Simulation neue, globale Strategien erstellt, um kritische Systempunkte (Systemelemente) zu erkennen. Der nachfolgende Beitrag beschreibt die Modellierung am Beispiel der Multimedia-Dienste und gibt mit einem umfassenden Glossar eine Einführung in die Begrifflichkeiten der Chaostheorie. Die Chaostheorie ist die mathematisch-physikalische Theorie zur Beschreibung von Systemen, die zwar durch Gesetzmäßigkeiten determiniert sind, bei denen aber kleine Änderungen der Anfangsbedingungen ein exponentielles Anwachsen von Störungen bewirken. Das Verhalten derartiger Systeme führt zur Ausbildung chaotischer Strukturen und ist langfristig nicht vorhersagbar. Die Chaostheorie ist beispielsweise in der nichtlinearen Optik, bei chemischen Reaktionen und der Wettervorhersage anwendbar.
Books Reviewed - European Democratization since 1800 edited by J. Garrard, V. Tolz and R. White
(2000)
RaWid was the German national technology programme on transonic aerodynamics and supporting technologies, lasting from 1995 to 1998. One of the main topics was laminar wing development. Besides aerodynamic design work, many operational aspects were investigated. A manufacturing concept was developed to be applied to operational laminar wings and empennages. It was built in a large scale manufacturing demonstrator with the aerodynamic shape of a 1,5 m section of the A320 fin nose. Tolerances in shape and roughness fulfilled all requirements. The construction can easily be adapted to varying stiffness and strength requirements. Weight and manufacturing costs are comparable to common nose designs. The mock-up to be designed in ALTTA is based on this manufacturing principle. Another critical point is contamination of suction surfaces. Several tests were performed to investigate perforated titanium suction surfaces at realistic operational conditions: - a one year flight test with a suction plate in the stagnation area of the Airbus "Beluga" - a one year test of several suction plates in a ground test near the airport - a one year test of a working suction ground test installation at all weather conditions. No critical results were found. There is no long term suction degradation visible. Icing conditions and ground de-icing fluids used on airports did not pose severe problems. Some problems detected require only respection of weak design constraints.
Penicillin detection by means of field-effect based sensors: EnFET, capacitive EIS sensor or LAPS?
(2000)
Information Channels
(2000)
Finanzierungsprobleme bei Unternehmensgründungen aus Sicht des Gründers - Erfahrungen aus der Praxis
(2000)
The structural reliability with respect to plastic collapse or to inadaptation is formulated on the basis of the lower bound limit and shakedown theorems. A direct definition of the limit state function is achieved which permits the use of the highly effective first order reliability methods (FORM) is achieved. The theorems are implemented into a general purpose FEM program in a way capable of large-scale analysis. The limit state function and its gradient are obtained from a mathematical optimization problem. This direct approach reduces considerably the necessary knowledge of uncertain technological input data, the computing time, and the numerical error, leading to highly effective and precise reliability analyses.
Limit and shakedown analysis are effective methods for assessing the load carrying capacity of a given structure. The elasto–plastic behavior of the structure subjected to loads varying in a given load domain is characterized by the shakedown load factor, defined as the maximum factor which satisfies the sufficient conditions stated in the corresponding static shakedown theorem. The finite element dicretization of the problem may lead to very large convex optimization. For the effective solution a basis reduction method has been developed that makes use of the special problem structure for perfectly plastic material. The paper proposes a modified basis reduction method for direct application to the two-surface plasticity model of bounded kinematic hardening material. The considered numerical examples show an enlargement of the load carrying capacity due to bounded hardening.
Limit Analysis of Defects
(2000)
Safety and reliability of structures may be assessed indirectly by stress distributions. Limit and shakedown theorems are simplified but exact methods of plasticity that provide safety factors directly in the loading space. These theorems may be used for a direct definition of the limit state function for failure by plastic collapse or by inadaptation. In a FEM formulation the limit state function is obtained from a nonlinear optimization problem. This direct approach reduces considerably the necessary knowledge of uncertain technological input data, the computing time, and the numerical error. Moreover, the direct way leads to highly effective and precise reliability analyses. The theorems are implemented into a general purpose FEM program in a way capable of large-scale analysis.
Pulses from a position-sensitive photomultiplier (PS-PMT) are recorded by free running ADCs at a sampling rate of 40 MHz. A four-channel acquisition-board has been developed which is equipped with four 12 bit-ADCs connected to one FPGA (field programmable gate array). The FPGA manages data acquisition and the transfer to the host computer. It can also work as a digital trigger, so a separate hardware-trigger can be omitted. The method of free running sampling provides a maximum of information, besides the pulse charge and amplitude also pulse shape and starting time are contained in the sampled data. These informations are crucial for many tasks such as distinguishing between different scintillator materials, determination of radiation type, pile-up recovery, coincidence detection or time-of-flight applications. The absence of an analog integrator allows coping with very high count rates. Since this method is going to be employed in positron emission tomography (PET), the position of an event is another important information. The simultaneous readout of four channels allows localization by means of center-of-gravity weighting. First results from a test setup with LSO-scintillators coupled to the PS-PMT are presented
A network of brain areas is expected to be involved in supporting the motion aftereffect. The most active components of this network were determined by means of an fMRI study of nine subjects exposed to a visual stimulus of moving bars producing the effect. Across the subjects, common areas were identified during various stages of the effect, as well as networks of areas specific to a single stage. In addition to the well-known motion-sensitive area MT the prefrontal brain areas BA44 and 47 and the cingulate gyrus, as well as posterior sites such as BA37 and BA40, were important components during the period of the motion aftereffect experience. They appear to be involved in control circuitry for selecting which of a number of processing styles is appropriate. The experimental fMRI results of the activation levels and their time courses for the various areas are explored. Correlation analysis shows that there are effectively two separate and weakly coupled networks involved in the total process. Implications of the results for awareness of the effect itself are briefly considered in the final discussion.
Zwangsbelüftete Nasskühltürme haben im Gegensatz zur Trockenkühlung bei naßkaltem Wetter Nebelschwaden zur Folge. Dagegen ist bei Naßkühlung die spezifische Kühlleistung durch abgeführte Kondensationswärme höher als bei der Trockenkühlung. Hybridzellenkühltürme kombinieren beide Methoden, so daß ein Mischstrom beider Abluftströme die Wasserdampf-Sättigungsgrenze nicht überschreitet. Durch das Mischungsverhältnis kann man den gewünschten Sättigungsgrad einstellen. Je dichter dieser an der Sättigungsgrenze liegt, desto höher ist die Kühlleistung. Der von unten zugeführte Luftstrom der Naßkühlung und der seitlich zugeführte trockene Abluftstrom müssen sehr gut durchmischt werden, um über den gesamten Austrittsquerschnitt des Kühlturms die Sättigungsgrenze nicht zu überschreiten. In einem maßstabsgerechten Modell wurde der Mischungsgrad mit und ohne Einbauten untersucht. Über ein Raster von 10 mal 10 Punkten wurde die örtliche Temperaturverteilung ermittelt. Wärmebilanzen ergeben dann die Mischungsgüte in einer Ebene oberhalb der Zellenkrone. Während ohne Mischeinbauten der Trockenluftanteil in der Mitte des Querschnitts bei unter 15 % liegt erhöhen Einbauten den Trockenluftanteil auf 30 % bis über 40 %. Dabei wurde die Trockenluft auf jeder Kühlturmseite durch 4 konisch zulaufende, unten offene und oben geschlitzte Einbauten kanalisiert. Die Nassluft wurde durch eine im Querschnitt dreieckige Rinne in Richtung der Trockenluftauslässe umgelenkt. Im Raster leicht zu lokalisierende Abweichungen vom gewünschten Mittelwert zeigen Potential für die weitere Verbesserung der Einbauten.
Zur Kühlung von Abwärmeströmen aus Kraftwerksprozessen werden in zunehmenden Maße Hybridzellenkühltürme mit Zwangskonvektion eingesetzt, deren wesentlicher Vorteil ihre geringe Bauhöhe ist. Um bei derartigen Kühltürmen eine Sichtbehinderung oder Glatteisgefährdung durch bodennahen Nebel zu vermeiden, muss durch eine optimale Vermischung des Trocken- und Naßluftanteils gewährleistet sein, daß aus der Kühlturmkrone keine Nebelschwaden austreten. In Zusammenarbeit mit der Industrie betreibt der Lehrstuhl für Wärmeübertragung und Klimatechnik der RWTH Aachen einen Versuchsstand zur Erfassung der Mischungsgüte in Hybridzellenkühltürmen. In maßstabsgerechter Nachbildung können dabei am Modell alle relevanten Einflußgrößen wie Kühlturmgeometrie, Gestaltung zusätzlicher Mischeinbauten sowie die Betriebsparameter variiert werden. Mit Hilfe einer unter LabView 5.01 erstellten Software werden sowohl die l3etriebszustüncle online überwacht, als auch die benötigten Meßwerte zur Bestimmung der Mischungsgüte erfaßt. Über die grafische Oberfläche können sämtliche Meßoptionen gesteuert sowie alle Meßdaten visualisiert und kontrolliert werden. In das LabView-Programm sind darüber hinaus Routinen zur Auswertung der Daten implementiert worden, die sowohl eine direkte Darstellung der Ergebnisse in Form von Diagrammen ermöglichen, als auch zur Weiterverarbeitung einen Datenexport in eine Microsoft- Excel-Tabelle vorsehen.