Refine
Year of publication
Document Type
- Article (122) (remove)
Has Fulltext
- yes (122) (remove)
Keywords
- Einspielen <Werkstoff> (7)
- Multimediamarkt (6)
- Rapid prototyping (5)
- FEM (4)
- Finite-Elemente-Methode (4)
- Rapid Prototyping (4)
- Blitzschutz (3)
- 3D-Printing (2)
- Acyl-amino acids (2)
- Aminoacylase (2)
- Bacillaceae (2)
- Bauingenieurwesen (2)
- Biotechnological application (2)
- CAD (2)
- CFD (2)
- Capacitive field-effect sensor (2)
- Einspielanalyse (2)
- Hochschuldidaktik (2)
- Karosseriebau (2)
- Kraftfahrzeugbau (2)
Institute
- Fachbereich Medizintechnik und Technomathematik (47)
- IfB - Institut für Bioengineering (22)
- Fachbereich Maschinenbau und Mechatronik (20)
- INB - Institut für Nano- und Biotechnologien (17)
- Fachbereich Chemie und Biotechnologie (12)
- Fachbereich Energietechnik (11)
- Fachbereich Luft- und Raumfahrttechnik (9)
- Fachbereich Elektrotechnik und Informationstechnik (8)
- ECSM European Center for Sustainable Mobility (6)
- Fachbereich Bauingenieurwesen (6)
- Nowum-Energy (6)
- Fachbereich Wirtschaftswissenschaften (4)
- Fachbereich Architektur (3)
- Fachbereich Gestaltung (3)
- ZHQ - Bereich Hochschuldidaktik und Evaluation (3)
- Solar-Institut Jülich (2)
- Arbeitsstelle fuer Hochschuldidaktik und Studienberatung (1)
- FH Aachen (1)
- IBB - Institut für Baustoffe und Baukonstruktionen (1)
- MASKOR Institut für Mobile Autonome Systeme und Kognitive Robotik (1)
Photoelectrochemical (PEC) biosensors are a rather novel type of biosensors thatutilizelighttoprovideinformationaboutthecompositionofananalyte,enablinglight-controlled multi-analyte measurements. For enzymatic PEC biosensors,amperometric detection principles are already known in the literature. In con-trast, there is only a little information on H+-ion sensitive PEC biosensors. Inthis work, we demonstrate the detection of H+ions emerged by H+-generatingenzymes, exemplarily demonstrated with penicillinase as a model enzyme on atitanium dioxide photoanode. First, we describe the pH sensitivity of the sensorand study possible photoelectrocatalytic reactions with penicillin. Second, weshow the enzymatic PEC detection of penicillin.
Plant viruses are major contributors to crop losses and induce high economic costs worldwide. For reliable, on-site and early detection of plant viral diseases, portable biosensors are of great interest. In this study, a field-effect SiO2-gate electrolyte-insulator-semiconductor (EIS) sensor was utilized for the label-free electrostatic detection of tobacco mosaic virus (TMV) particles as a model plant pathogen. The capacitive EIS sensor has been characterized regarding its TMV sensitivity by means of constant-capacitance method. The EIS sensor was able to detect biotinylated TMV particles from a solution with a TMV concentration as low as 0.025 nM. A good correlation between the registered EIS sensor signal and the density of adsorbed TMV particles assessed from scanning electron microscopy images of the SiO2-gate chip surface was observed. Additionally, the isoelectric point of the biotinylated TMV particles was determined via zeta potential measurements and the influence of ionic strength of the measurement solution on the TMV-modified EIS sensor signal has been studied.
Contractile behavior of the gastrocnemius medialis muscle during running in simulated hypogravity
(2021)
Vigorous exercise countermeasures in microgravity can largely attenuate muscular degeneration, albeit the extent of applied loading is key for the extent of muscle wasting. Running on the International Space Station is usually performed with maximum loads of 70% body weight (0.7 g). However, it has not been investigated how the reduced musculoskeletal loading affects muscle and series elastic element dynamics, and thereby force and power generation. Therefore, this study examined the effects of running on the vertical treadmill facility, a ground-based analog, at simulated 0.7 g on gastrocnemius medialis contractile behavior. The results reveal that fascicle−series elastic element behavior differs between simulated hypogravity and 1 g running. Whilst shorter peak series elastic element lengths at simulated 0.7 g appear to be the result of lower muscular and gravitational forces acting on it, increased fascicle lengths and decreased velocities could not be anticipated, but may inform the development of optimized running training in hypogravity. However, whether the alterations in contractile behavior precipitate musculoskeletal degeneration warrants further study.
The international partnership of space agencies has agreed to proceed forward to the Moon sustainably. Activities on the Lunar surface (0.16 g) will allow crewmembers to advance the exploration skills needed when expanding human presence to Mars (0.38 g). Whilst data from actual hypogravity activities are limited to the Apollo missions, simulation studies have indicated that ground reaction forces, mechanical work, muscle activation, and joint angles decrease with declining gravity level. However, these alterations in locomotion biomechanics do not necessarily scale to the gravity level, the reduction in gastrocnemius medialis activation even appears to level off around 0.2 g, while muscle activation pattern remains similar. Thus, it is difficult to predict whether gastrocnemius medialis contractile behavior during running on Moon will basically be the same as on Mars. Therefore, this study investigated lower limb joint kinematics and gastrocnemius medialis behavior during running at 1 g, simulated Martian gravity, and simulated Lunar gravity on the vertical treadmill facility. The results indicate that hypogravity-induced alterations in joint kinematics and contractile behavior still persist between simulated running on the Moon and Mars. This contrasts with the concept of a ceiling effect and should be carefully considered when evaluating exercise prescriptions and the transferability of locomotion practiced in Lunar gravity to Martian gravity.
In traditional microbial biobutanol production, the solvent must be recovered during fermentation process for a sufficient space-time yield. Thermal separation is not feasible due to the boiling point of n-butanol. As an integrated and selective solid-liquid separation alternative, solvent impregnated resins (SIRs) were applied. Two polymeric resins were evaluated and an extractant screening was conducted. Vacuum application with vapor collection in fixed-bed column as bioreactor bypass was successfully implemented as butanol desorption step. In course of further increasing process economics, fermentation with renewable lignocellulosic substrates was conducted using Clostridium acetobutylicum. Utilization of SIR was shown to be a potential strategy for solvent removal from fermentation broth, while application of a bypass column allows for product removal and recovery at once.
Berücksichtigung von No Fault Found im Diagnose- und Instandhaltungssystem von Schienenfahrzeugen
(2020)
Intermittierende und nicht reproduzierbare Fehler, auch als No Fault Found bezeichnet, treten in praktisch allen Bereichen auf und sorgen für hohe Kosten. Diese sind häufig auf unpräzise Fehlerbeschreibungen zurückzuführen. Im vorliegenden Beitrag werden Anpassungen der Vorgehensweise bei der Entwicklung und Anpassungen des Diagnosesystems vorgeschlagen.
In this chapter, the key technologies and the instrumentation required for the subsurface exploration of ocean worlds are discussed. The focus is laid on Jupiter’s moon Europa and Saturn’s moon Enceladus because they have the highest potential for such missions in the near future. The exploration of their oceans requires landing on the surface, penetrating the thick ice shell with an ice-penetrating probe, and probably diving with an underwater vehicle through dozens of kilometers of water to the ocean floor, to have the chance to find life, if it exists. Technologically, such missions are extremely challenging. The required key technologies include power generation, communications, pressure resistance, radiation hardness, corrosion protection, navigation, miniaturization, autonomy, and sterilization and cleaning. Simpler mission concepts involve impactors and penetrators or – in the case of Enceladus – plume-fly-through missions.
For short take-off and landing (STOL) aircraft, a parallel hybrid-electric propulsion system potentially offers superior performance compared to a conventional propulsion system, because the short-take-off power requirement is much higher than the cruise power requirement. This power-matching problem can be solved with a balanced hybrid propulsion system. However, there is a trade-off between wing loading, power loading, the level of hybridization, as well as range and take-off distance. An optimization method can vary design variables in such a way that a minimum of a particular objective is attained. In this paper, a comparison between the optimization results for minimum mass, minimum consumed primary energy, and minimum cost is conducted. A new initial sizing algorithm for general aviation aircraft with hybrid-electric propulsion systems is applied. This initial sizing methodology covers point performance, mission performance analysis, the weight estimation process, and cost estimation. The methodology is applied to the design of a STOL general aviation aircraft, intended for on-demand air mobility operations. The aircraft is sized to carry eight passengers over a distance of 500 km, while able to take off and land from short airstrips. Results indicate that parallel hybrid-electric propulsion systems must be considered for future STOL aircraft.
Häufig bremsen geringe IT-Ressourcen, fehlende Softwareschnittstellen oder eine veraltete und komplex gewachsene Systemlandschaft die Automatisierung von Geschäftsprozessen. Robotic Process Automation (RPA) ist eine vielversprechende Methode, um Geschäftsprozesse oberflächenbasiert und ohne größere Systemeingriffe zu automatisieren und Medienbrüche abzubauen. Die Auswahl der passenden Prozesse ist dabei für den Erfolg von RPA-Projekten entscheidend. Der vorliegende Beitrag liefert dafür Selektionskriterien, die aus einer qualitativen Inhaltanalyse von elf Interviews mit RPA-Experten aus dem Versicherungsumfeld resultieren. Das Ergebnis umfasst eine gewichtetet Liste von sieben Dimensionen und 51 Prozesskriterien, welche die Automatisierung mit Softwarerobotern begünstigen bzw. deren Nichterfüllung eine Umsetzung erschweren oder sogar verhindern. Die drei wichtigsten Kriterien zur Auswahl von Geschäftsprozessen für die Automatisierung mittels RPA umfassen die Entlastung der an dem Prozess mitwirkenden Mitarbeiter (Arbeitnehmerüberlastung), die Ausführbarkeit des Prozesses mittels Regeln (Regelbasierte Prozessteuerung) sowie ein positiver Kosten-Nutzen-Vergleich. Praktiker können diese Kriterien verwenden, um eine systematische Auswahl von RPA-relevanten Prozessen vorzunehmen. Aus wissenschaftlicher Perspektive stellen die Ergebnisse eine Grundlage zur Erklärung des Erfolgs und Misserfolgs von RPA-Projekten dar.
A light-addressable potentiometric sensor (LAPS) is a field-effect-based (bio-) chemical sensor, in which a desired sensing area on the sensor surface can be defined by illumination. Light addressability can be used to visualize the concentration and spatial distribution of the target molecules, e.g., H+ ions. This unique feature has great potential for the label-free imaging of the metabolic activity of living organisms. The cultivation of those organisms needs specially tailored surface properties of the sensor. O2 plasma treatment is an attractive and promising tool for rapid surface engineering. However, the potential impacts of the technique are carefully investigated for the sensors that suffer from plasma-induced damage. Herein, a LAPS with a Ta2O5 pH-sensitive surface is successfully patterned by plasma treatment, and its effects are investigated by contact angle and scanning LAPS measurements. The plasma duration of 30 s (30 W) is found to be the threshold value, where excessive wettability begins. Furthermore, this treatment approach causes moderate plasma-induced damage, which can be reduced by thermal annealing (10 min at 300 °C). These findings provide a useful guideline to support future studies, where the LAPS surface is desired to be more hydrophilic by O2 plasma treatment.
Das IoT ist ohne eingebettete Systeme undenkbar. Erst kleine und kleinste Mikrocontroller mit intelligenten Kommunikationsschnittstellen und Anbindung ans Internet ermöglichen sinnvolles und flächendeckendes Einsammeln von Daten. Doch wie kompliziert ist der Einstieg in die Embedded-Welt? Dieser Artikel gibt Einblick, wie die »Arduino-Plattform« die Einstiegshürden für eingebettete Systeme dramatisch reduzieren kann.
IoT von der Stange
(2016)
Low-end-Embedded-Plattformen stellen eine hohe Anforderung an die Entscheidungsfähigkeit des Entwicklers: Zum nächstgrößeren Prozessor greifen und ein Betriebssystem benutzen oder doch besser auf das Betriebssystem verzichten? Die Frage lässt sich einfach beantworten: Einen Nanokernel verwenden und das Embedded-System mit einem minimalen Footprint realisieren. Adam Dunkels Protothreads sind eine ausgesprochen effiziente Art, Mikrocontroller gut strukturiert zu programmieren und gleichzeitig auf Overhead zu verzichten. So können auch mit kleinen 8-bit-Prozessoren anspruchsvolle Aufgaben in einem Thread-Modell bearbeitet werden. Man muss also nicht immer das Rad neu erfinden oder gleich auf Linux-basierte Systeme zurückgreifen.
In Folge mehrjähriger statistischer Untersuchungen an der FH Aachen ist unter anderem ein Eingangstest entstanden, der als Diagnosetool für einen erfolgreichen Studieneinstieg verwendet wird. Es hat sich herausgestellt, dass ein Testergebnis von weniger als 25 (von maximal 56 erreichbaren) Punkten die Chance auf einen erfolgreichen Studieneinstieg deutlich verringert. Ungefähr die Hälfte aller Erstsemester hat weniger als 25 Punkte im Eingangstest. Weniger als 20 % dieser Gruppe bestehen innerhalb eines Jahres die Klausur Mathematik 1. Die investierte Zeit von zwei Semestern ist mit Blick auf den Wissenszuwachs und damit letztendlich den Studienerfolg nicht effizient genutzt. Deshalb haben wir im WS 2013/14 einen semesterbegleitenden Anpassungskurs für diese Gruppe installiert. Ziel eines solchen Kurses ist es, die Student/innen innerhalb eines Jahres in die Lage zu versetzen, nach zwei Semestern problemlos den Vorlesungen in Mathematik zu folgen. Dieser Artikel beschreibt das Konzept dieses Anpassungskurses und zeigt erste Ergebnisse und Probleme des Pilotdurchgangs auf.
The carbonized rice husk (CRH) was evaluated for its wound healing activity in rats using excision models. In this study, the influences of CRH on wound healing in rat skin in vivo and cellular behavior of human dermal fibroblasts in vitro were investigated. The obtained results showed that the CRH treatment promoted wound epithelization in rats and exhibited moderate inhibition of cell proliferation in vitro. CRH with lanolin oil treated wounds were found to epithelize faster as compared to controls.
Diese Studie beschäftigte sich mit der Dämpfungswirkung von Schienbeinschonern, wie sie beim Fußball zum Einsatz kommen. Sie wurde mit Hilfe eines Pendelhammers durchgeführt, der verschiedene Aufschlagkräfte auf die Schoner ermöglichte. Dabei wurde deutlich, dass Schienbeinschoner die beste Wirkung bei Maximalkräften unterhalb von 5kN erreichen können, dass bei größerer Belastung allerdings Verbesserungsbedarf besteht. Hierfür konnte, u.a. durch den Einsatz neuer Materialien, ein guter Ansatzpunkt im „adäquaten Zusammenspiel von Schale und Polsterung“ der Schoner gefunden werden. Die Untersuchung hat weiterhin gezeigt, dass zumindest teilweise eine deutliche Verbesserung der Dämpfungswirkung der Schienbeinschoner in den letzten Jahren erreicht werden konnte.
Originalausgabe: Orthopädische Praxis Jg. 47. 2011 H. 11; S. 536-543. Mit freundlicher Genehmigung des Verlags Zusammenfassung: Auf der Basis von Patientenabfragen mittels Fragebogen zum Schmerzempfinden und zur Einschränkung bei Aktivitäten des alltäglichen Lebens wird die Langzeitwirkung der MBST® KernspinResonanz-Therapie bei Gonarthrose untersucht. An der Studie nahmen 39 Patienten teil, bei denen die Therapie bis zu vier Jahre zurückliegt. Neben einer Gesamtbetrachtung wird der Erfolg auch in Abhängigkeit von Alter, Geschlecht und sportlicher Aktivität analysiert. Insgesamt weist die Studie auf eine anhaltende Verbesserung des Gesundheitszustands mit zum Teil deutlicher Schmerzlinderung auch noch nach vier Jahren hin, jedoch mit einer leichten Schmerzzunahme gegen Ende des Untersuchungszeitraums von vier Jahren. Eine tendenziell positivere Wirkung bei Frauen, älteren Menschen oder auch sportlich nicht-aktiven Patienten lässt auf eine mögliche Beeinflussung des Erfolgs der Therapie durch (Über-)Belastung im Alltag schließen. Ein zusätzlich positiver Effekt der Therapie auf die Knochendichte ist ebenfalls denkbar, dies bleibt jedoch offen.
The importance of the availability of stored blood or blood cells, respectively, for urgent transfusion cannot be overestimated. Nowadays, blood storage becomes even more important since blood products are used for epidemiological studies, bio-technical research or banked for transfusion purposes. Thus blood samples must not only be processed, stored, and shipped to preserve their efficacy and safety, but also all parameters of storage must be recorded and reported for Quality Assurance. Therefore, blood banks and clinical research facilities are seeking more accurate, automated means for blood storage and blood processing.
Plant physiology and plant stress: Plant physiology will be much more important for human mankind because of yield and cultivation limits of crops determined by their resistance to stress. To assess and counteract various stress factors it is necessary to conduct plant research to gain information and results on plant physiology.
The demand of replacements for inoperable organs exceeds the amount of available organ transplants. Therefore, tissue engineering developed as a multidisciplinary field of research for autologous in-vitro organs. Such three dimensional tissue constructs request the application of a bioreactor. The UREPLACE bioreactor is used to grow cells on tubular collagen scaffolds OPTIMAIX Sponge 1 with a maximal length of 7 cm, in order to culture in vitro an adequate ureter replacement. With a rotating unit, (urothelial) cells can be placed homogeneously on the inner scaffold surface. Furthermore, a stimulation is combined with this bioreactor resulting in an orientation of muscle cells. These culturing methods request a precise control of several parameters and actuators. A combination of a LabBox and the suitable software LabVision is used to set and conduct parameters like rotation angles, velocities, pressures and other important cell culture values. The bioreactor was tested waterproof successfully. Furthermore, the temperature controlling was adjusted to 37 °C and the CO2 - concentration regulated to 5 %. Additionally, the pH step responses of several substances showed a perfect functioning of the designed flow chamber. All used software was tested and remained stable for several days.
Bacterial lipopolysaccharides (endotoxins) show strong biological effects at very low concentrations in human beings and many animals when entering the blood stream. These include affecting structure and function of organs and cells, changing metabolic functions, raising body temperature, triggering the coagulation cascade, modifying hemodynamics and causing septic shock. Because of this toxicity, the removal of even minute amounts is essential for safe parenteral administration of drugs and also for septic shock patients' care. The absence of a general method for endotoxin removal from liquid interfaces urgently requires finding new methods and materials to overcome this gap. Nanostructured carbonized plant parts is a promising material that showed good adsorption properties due to its vast pore network and high surface area. The aim of this study was comparative measurement of endotoxin- and blood proteins-related adsorption rate and adsorption capacity for different carboneous materials produced at different temperatures and under different surface modifications. As a main surface modificator, positively cbarged polymer, polyethileneimine (PEl) was used. Activated carbon materials showed good adsorption properties for LPS and some proteins used in the experiments. During the batch experiments, several techniques (dust removal, autoclaving) were used and optimized for improving the material's adsorption behavior. Also, with the results obtained it was possible to differentiate the materials according to their adsorption capacity and kinetic characteristics. Modification of the surface apparently has not affected hemoglobin binding to the adsorbent's surface. Obtained adsorption isotherms can be used as a powerful tool for designing of future column-based setups for blood purification from LPS, which is especially important for septic shock treatment.
Die Einleitung zur Norm DIN EN 62305-3 beschreibt klar und ein - deutig: Der vorliegende Teil der IEC 62305 behandelt den Schutz von baulichen Anlagen gegen materielle Schäden und den Schutz von Personen gegen Verletzungen durch Berührungs- und Schrittspannungen. Als das wesentlichste und effektivste Mittel zum Schutz von baulichen Anlagen gegen materielle Schäden gilt das Blitz - schutzsystem (LPS).
In: Advanced Engineering Informatics. Vol 21, Issue 1, 2007, Pages 67-83 http://dx.doi.org/10.1016/j.aei.2006.10.001 eds. J.C. Kunz, I.F.C. Smith and T. Tomiyama, Elsevier, Seite 1-22 Current CAD tools are not able to support the conceptual design phase, and none of them provides a consistency analysis for sketches produced by architects. This phase is fundamental and crucial for the whole design and construction process of a building. To give architects a better support, we developed a CAD tool for conceptual design and a knowledge specification tool. The knowledge is specific to one class of buildings and it can be reused. Based on a dynamic and domain-specific knowledge ontology, different types of design rules formalize this knowledge in a graph-based form. An expressive visual language provides a user-friendly, human readable representation. Finally, a consistency analysis tool enables conceptual designs to be checked against this formal conceptual knowledge. In this article, we concentrate on the knowledge specification part. For that, we introduce the concepts and usage of a novel visual language and describe its semantics. To demonstrate the usability of our approach, two graph-based visual tools for knowledge specification and conceptual design are explained.
The most of conventional methods of air purification use the power of a fan to draw in air and pass it through a filter. The problem of bacterial contamination of inner parts of such a type of air conditioners in some cases draws attention towards alternative air-cleaning systems. Some manufacturers offer to use the ozone's bactericidal and deodorizing effects, but the wide spreading of such systems is restricted by the fact that toxic effects of ozone in respect of human beings are well known. In 2000 Sharp Inc. introduced "Plasma Cluster Ions (PCI)" air purification technology, which uses plasma discharge to generate cluster ions (I 0-14 ). This technology has been developed for those customers that are conscious about health and hygiene. In our experiments, we focused on some principal aspects of plasma-generated ions application - time-dependency and irreversibility of bactericidal action, spatial and kinetic characteristics of emitted cluster particles, their chemical targets in the microbial cells.
Sieht man sich die umfangreichen Betätigungsfelder für einen Projektsteuerer in den Publikationen der einschlägigen Verbände und der Anbieter etwas genauer an, so wird man feststellen, das nach der eigentlichen Projektvorbereitungsphase mit Wirtschaftlichkeitsberechnungen und Sicherstellung der Finanzierung erhebliche Überschneidungen zu den in der HOAI ausgewiesenen Tätigkeiten der weiteren Planungsbeteiligten, insbesondere des Gebäudeplaners, also des Architekten bestehen. Geht man nun davon aus, dass der Bauherr diese Leistungen nicht doppelt bezahlen will, wäre die logische Konsequenz aus der vollumfänglichen Beauftragung eines Projektsteuerers die Verminderung des Auftragsumfangs an den Architekten, verbunden mit einer Honorarminderung für den Architekten. Damit bricht dem Architekten bei eingehender Betrachtung am Ende mehr als die Hälfte seiner Tätigkeit und damit seiner Grundlage zur Honorarerzielung weg. Der Bauherr muss in erster Linie seine Wünsche definieren und sein Budget bestimmen. Er beauftragt die Planungsbeteiligten und nimmt deren Leistungen entgegen. Sein Problem dabei ist, dass er diese Leistung nicht beurteilen kann, weder in Bezug auf deren Vollständigkeit, noch in Bezug auf deren Inhalt. Hier steht der Projektsteuerer im eigentlichen Sinne. Er muss wissen, was die Planungsbeteiligten für ihr Geld zu leisten haben und wie er diese Leistungen durchsetzen kann. Letztendlich sorgt er dann aber auch dafür, das die Architektenleistungen, also Planung und Ausschreibungsunterlagen vom Bauherrn verstanden werden. Warum aber kann der Architekt selbst seine Leistungen und damit den Nachweis der Leistungserfüllung nicht selbst dem Bauherrn verständlich und damit glaubhaft machen? Es liegt also letztlich in der Hand der Architekten, ob ihr Betätigungsfeld weiter durch in die Planung und Gestaltung eingreifende, zusätzliche Projektsteuerer und Generalunternehmer eingeengt oder sogar weggenommen werden kann. Die Frage, wer das Baugeschehen steuert und lenkt bleibt solange ungeklärt, wie die Architekten dieses Tätigkeitsfeld des Architekten im Baubetrieb weiterhin nur unzulänglich ausfüllen können und wollen.
Textauszug: Nach dem Leistungsbild der HOAI hat der Architekt bei Planung und Baubetrieb vier Stationen der Kostenermittlung entsprechend der DIN 276, Abschnitt 2.3 abzuarbeiten. Der Architekt, der seiner Verantwortung gerecht werden will, wird hier weitere Kontrollmechanismen einbauen wollen. Über die genannten Kostenermittlungen hinaus kennt die DIN 276 daher noch das Erfordernis der Kostenkontrolle in Abschnitt 2.4 und der Kostensteuerung in Abschnitt 2.5. Die Kostensteuerung greift immer dann, wenn die Kostenkontrolle eine Abweichung des Kostenrahmens von den Sollwerten aufzeigt. Dazu müssen die Kontrollinstanzen dort eingebaut werden, wo Korrekturen noch möglich sind. Eine erste Kontrolle der Kosten ist daher zwischen Massenermittlung und Vergabe sinnvoll einzuflechten. Zu diesem Zeitpunkt kann die Planung noch verändert werden, was einen ersten steuernden Eingriff in die Baukosten ermöglicht, und zwar bevor die Angebotsunterlagen verschickt werden. Die Grundlagen zu einer effektiven Kostensteuerung werden in der Mengenermittlung der Leistungsphase 6 gelegt. Wenn dort die Mengen nicht sorgfältig und nachvollziehbar ermittelt wurden, wird der Soll- Ist- Abgleich während der Bauphase nicht frühzeitig genug gelingen, wenn nicht gar ganz entfallen. Es gilt also, dafür zu sorgen, dass die Mengenermittlung zur Vergabe mit entsprechender Sorgfalt und vor Allem „projektnah“ erfolgt. Schätzungen haben hier keine Berechtigung.
Eine Einführung in die Anwendung der VOB in der baubetrieblichen Praxis im Rahmen der ergänzenden Schriften zu den Vorlesungen. Die Anwendung der VOB als Vertragsbedingung für einen Bauvertrag ist gängige Praxis, über die der Architekt im Baubetrieb umfassend informiert sein muß. Die Anwendung der VOB im Bauvertrag bedarf der vorherigen Vereinbarung zwischen den Vertragsparteien. Dabei muß die VOB im Ganzen vereinbart werden. Eine Veränderung dieser Bestimmungen führt zur teilweisen Unwirksamkeit der vertraglichen Vereinbarung. Der Architekt, der für seinen Bauherrn die Vergabeunterlagen zusammenstellen muß, haftet für Fehler bei der Formulierung oder der Zusammenstellung. Es ist daher für den Architekten unerläßlich, die vertraglichen Zusammenhänge zu kennen. Dieser Fachaufsatz soll zu einem sicheren Umgang mit der VOB als Vertragsgrundlage beitragen.
Als um 1987 ein Verfahren namens Stereolithographie und ein Stereolithography Apparatus (SLA) vorgestellt wurden, war der Traum von der Herstellung beliebiger dreidimensionaler Bauteile direkt aus Computerdaten und ohne bauteilspezifische Werkzeuge Realität geworden. Ein Anwendungs-Szenario wurde gleich mitgeliefert. Diese Technologie würde es möglich machen, die gesamte Ersatzteilversorgung der Amerikanischen Pazifikflotte mittels ein paar dieser Maschinen, umfangreicher Datenstätze und genügend Rohmaterial vor Ort auf einem Flugzeugträger direkt nach Bedarf zu fertigen. Diese Vorstellung definierte schon damals die direkte digitale Fertigung, das Rapid Manufacturing. In der Realität bestanden die mit diesem Verfahren hergestellten Bauteile nur aus Kunststoff, waren ungenau, bruchempfindlich und klebrig und allein in der Produktentwicklung, eben als Prototypen zu benutzen. Sie waren schnell verfügbar, weil zu Ihrer Herstellung keine Werkzeuge benötigt wurden. Folgerichtige und zudem modern hießen sie: Rapid Prototyping. Rapid Prototyping wurde schnell zum Synonym eines neuen Zweiges der Fertigungstechnik, der Generativen Fertigungstechnik. Die weitere Entwicklung brachte neue Verfahren, höhere Genauigkeiten, verbesserte Werkstoffe und neue Anwendungen. Die Herstellung von Negativen, also Werkzeugen, mit dem gleichen Verfahren wurde marketing-getrieben Rapid Tooling genannt und als die ersten Bauteile nicht mehr als Prototypen, sondern als Endprodukte eingesetzt wurden, nannte man dies Rapid Manufacturing - das Ziel war erreicht. War das Ziel wirklich erreicht? Ist es Rapid Manufacturing, wenn ein generativ gefertigtes Bauteil die gewünschte Spezifikation erreicht? Was muss passieren, damit aus dem Phänomen Rapid Prototyping eine Strategie wird, die geeignet ist, einen Paradigmenwechsel von der heutigen Hersteller-induzierten Massenproduktion von Massenartikeln zur Verbraucher-induzierten (und verantworteten) Massenproduktion von Einzelteilen für jedermann ermöglichen und möglicherweise unsere Arbeits- und Lebensformen tiefgreifend zu beeinflussen? Im Beitrag wird der Begriff der (Fertigungs-) Strategie „Rapid Manufacturing“ näher beleuchtet. Es wird diskutiert, welche Maßnahmen auf der technischen und der operative Ebene getroffen werden müssen, damit die generative Fertigungstechnik im Sinne dieser Strategie umgesetzt werden kann. Beispiele belegen, dass diese Entwicklung bereits begonnen hat und geben Anregungen für eine konstruktive Diskussion auf der RapidTech 2006.
Table of Contents Introduction 1. Generative Manufacturing Processes 2. Classification of Generative Manufacturing Processes 3. Application of Generative Processes on the Fabrication of Ceramic Parts 3.1 Extrusion 3.2 3D-Printing 3.3 Sintering – Laser Sintering 3.4 Layer-Laminate Processes 3.5 Stereolithography (sometimes written: Stereo Lithography) 4. Layer Milling 5. Conclusion - Vision
Limit loads can be calculated with the finite element method (FEM) for any component, defect geometry, and loading. FEM suggests that published long crack limit formulae for axial defects under-estimate the burst pressure for internal surface defects in thick pipes while limit loads are not conservative for deep cracks and for pressure loaded crack-faces. Very deep cracks have a residual strength, which is modelled by a global collapse load. These observations are combined to derive new analytical local and global collapse loads. The global collapse loads are close to FEM limit analyses for all crack dimensions.
In the new European standard for unfired pressure vessels, EN 13445-3, there are two approaches for carrying out a Design-by-Analysis that cover both the stress categorization method (Annex C) and the direct route method (Annex B) for a check against global plastic deformation and against progressive plastic deformation. This paper presents the direct route in the language of limit and shakedown analysis. This approach leads to an optimization problem. Its solution with Finite Element Analysis is demonstrated for mechanical and thermal actions. One observation from the examples is that the so-called 3f (3Sm) criterion fails to be a reliable check against progressive plastic deformation. Precise conditions are given, which greatly restrict the applicability of the 3f criterion.
Die generative Herstellung von Kunststoffbauteilen hat im Gewand des Rapid Prototyping die Produktentwicklung nachhaltig positiv beeinflusst und ist im Begriff als Rapid Manufacturing die Fertigung zu revolutionieren. Je mehr sich die besonderen Eigenschaften generativ gefertigter Kunststoffbauteile herumsprechen, desto lauter wird der Ruf nach Metallbauteilen. Die Entwicklung entsprechender Prozesse läuft auf Hochtouren, kann aber bisher aber erst vereinzelt Erfolge vorweisen. Dabei wären es gerade die Metallbauteile, die ausgestattet mit den besonderen Merkmalen generativ gefertigter Werkstücke, in vielen Branchen einen deutlichen Entwicklungsschub auslösen könnten. Für den potenziellen Anwender ist dabei besonders verwirrend, dass die unterschiedlichsten Ansätze nebeneinander verfolgt werden. Im Folgenden soll daher der Versuche unternommen werden, dieses weite Feld systematisiert darzustellen und Möglichkeiten und Trends zu erläutern.
Die Berechnung der Durchströmung von Bauteilen ist gegenüber derjenigen von umströmten Bauteilen deutlich im Hintertreffen. Das liegt vor allem an der fehlenden Verfügbarkeit geeigneter optisch transparenter Modellkanäle für die experimentelle Analyse. Der Beitrag stellt ein Verfahren zur Herstellung transparenter durchströmter Geometrien auf der Basis generativ gefertigter Urmodelle vor. Damit können beliebig komplexe Innenströmungen optisch analysiert werden. Anhand von zwei Beispielen aus der Medizin, der Modellierung der oberen Atemwege und des Bronchialbaums, wird das Verfahren vorgeführt. Der generative Bauprozess mittels 3D-Printing wird beschrieben und die Abformung in transparentem Silikon gezeigt. Schließlich werden beispielhaft der Messaufbau und Ergebnisse der Anwendung vorgestellt. Das Verfahren bildet die Grundlage für die Analyse und Berechnung komplexer Innenströmungen und trägt somit zur Verbesserung zahlreicher technischer Anwendungen bei.
Improved collapse loads of thick-walled, crack containing pipes and vessels are suggested. Very deep cracks have a residual strength which is better modelled by a global limit load. In all burst tests, the ductility of pressure vessel steels was sufficiently high whereby the burst pressure could be predicted by limit analysis with no need to apply fracture mechanics. The relative prognosis error increases however, for long and deep defects due to uncertainties of geometry and strength data.
This work is an attempt to answer the question: How to use convex programming in shakedown analysis of structures made of materials with temperature-dependent properties. Based on recently established shakedown theorems and formulations, a dual relationship between upper and lower bounds of the shakedown limit load is found, an algorithmfor shakedown analysis is proposed. While the original problem is neither convex nor concave, the algorithm presented here has the advantage of employing convex programming tools.
An optimization method is developed to describe the mechanical behaviour of the human cancellous bone. The method is based on a mixture theory. A careful observation of the behaviour of the bone material leads to the hypothesis that the bone density is controlled by the principal stress trajectories (Wolff’s law). The basic idea of the developed method is the coupling of a scalar value via an eigenvalue problem to the principal stress trajectories. On the one hand this theory will permit a prediction of the reaction of the biological bone structure after the implantation of a prosthesis, on the other hand it may be useful in engineering optimization problems. An analytical example shows its efficiency.
Laborpraktika bieten Studierenden besondere Lernmöglichkeiten. Sie erleben im Praktikum mit Kopf (kognitiv), Herz (affektiv) und Hand (motorisch) Zusammenhänge und Zusammenarbeit. Durch die multimediale Vorbereitung und Unterstützung der Laborpraktika mit INGMEDIA können diese Lernvorteile intensiver genutzt werden. Vielfältige und differenzierte Kontextangebote bieten individuelle Lerneinstiegsmöglichkeiten und aktivieren zu Selbstgesteuertem Lernen. Durch die Verbesserung von Vorwissen und Motivation eröffnen scih Lehrenden und Lernenden neue Freiräume bei der Gestaltung der Präsenzveranstaltung. Durch hochschuldidaktische Aktionsforschung beim Einsatz im Lehrbetrieb wird die weitere Entwicklung von Software und Präsenzveranstaltung prozesshaft begleitet.
"INGMEDIA: Entwicklung und Evaluation interaktiver, multimedialer Lernsoftware für technische und physikalische Praktika in Ingenieurstudiengängen". So lautet der Titel des vom bmb+f im Förderprogramm "Neue Medien in der Hochschullehre" unterstützten Verbundprojekts. [...] Im vorliegenden Beitrag wird über das Evaluationskonzept von INGMEDIA berichtet. Es handelt sich hierbei um einen im E-Learning-Bereich bisher kaum vertretenen Ansatz hochschuldidaktischer Aktionsforschung. Der Beitrag betont entsprechend des kevih - Tagungskonzepts (Tübingen 11./12.3.03) die besonderen hochschuldidaktischen Zielrichtungen, fokussiert also klar auf der konzeptionellen Ebene. Die Umsetzung und Evaluationsergebnisse zu INGMEDIA werden nach Projektabschluss an anderer Stelle veröffentlicht.
Generative Verfahren sind seit etwa 1987 in den USA und seit etwa 1990 in Europa und Deutschland in Form von Rapid Prototyping Verfahren bekannt und haben sich in dieser Zeit von eher als exotisch anzusehenden Modellbauverfahren zu effizienten Werkzeugen für die Beschleunigung der Produktentstehung gewandelt. Mit der Weiterentwicklung der Verfahren und insbesondere der Materialien wird mehr und mehr das Feld der direkten Anwendung der Rapid Technologie zur Fertigung erschlossen. Rapid Technologien werden daher zum Schlüssel für neue Konstruktionssystematiken und Fertigungsstrategien.
Ein vorausschauendes Risikomanagement beinhaltet, Risiken zu kalkulieren. Es liefert Entscheidungsgrundlagen, um diese Risiken zu begrenzen und es macht transparent,welche Risiken sinnvoll über Versicherungen abgedeckt werden sollten. Bei Unternehmen, die mit umfangreichen elektronischenEinrichtungen produzieren oder Dienstleistungen erbringen (und das sind heutzutage wohl die meisten), muss auch das Risiko durch Blitzeinwirkungen besondere Berücksichtigung finden. Dabei ist zu beachten, dass der Schaden aufgrund der Nichtverfügbarkeit der elektronischen Einrichtungen und damit derProduktion bzw. der Dienstleistung und ggf. der Verlust von Daten den Hardwareschaden an der betroffenen Anlage oft bei weitem übersteigt.
Cement augmentation is an emerging surgical procedure in which bone cement is used to infiltrate and reinforce osteoporotic vertebrae. Although this infiltration procedure has been widely applied, it is performed empirically and little is known about the flow characteristics of cement during the injection process. We present a theoretical and experimental approach to investigate the intertrabecular bone permeability during the infiltration procedure. The cement permeability was considered to be dependent on time, bone porosity, and cement viscosity in our analysis. In order to determine the time-dependent permeability, ten cancellous bone cores were harvested from osteoporotic vertebrae, infiltrated with acrylic cement at a constant flow rate, and the pressure drop across the cores during the infiltration was measured. The viscosity dependence of the permeability was determined based on published experimental data. The theoretical model for the permeability as a function of bone porosity and time was then fit to the testing data. Our findings suggest that the intertrabecular bone permeability depends strongly on time. For instance, the initial permeability (60.89 mm4/N.s) reduced to approximately 63% of its original value within 18 seconds. This study is the first to analyze cement flow through osteoporotic bone. The theoretical and experimental models provided in this paper are generic. Thus, they can be used to systematically study and optimize the infiltration process for clinical practice.
Structural design analyses are conducted with the aim of verifying the exclusion of ratchetting. To this end it is important to make a clear distinction between the shakedown range and the ratchetting range. The performed experiment comprised a hollow tension specimen which was subjected to alternating axial forces, superimposed with constant moments. First, a series of uniaxial tests has been carried out in order to calibrate a bounded kinematic hardening rule. The load parameters have been selected on the basis of previous shakedown analyses with the PERMAS code using a kinematic hardening material model. It is shown that this shakedown analysis gives reasonable agreement between the experimental and the numerical results. A linear and a nonlinear kinematic hardening model of two-surface plasticity are compared in material shakedown analysis.
Kunstwerke sowie ihre Präsentation und Vermittlung werden zunehmend von digitalen Technologien unterstützt. Virtuelle Ausstellungen, Internet-Projekte und komplexe Datenarchive stellen das Kunstwerk in einen medialen Kontext, der weit über das Moment einer technischen Reproduzierbarkeit hinausgeht. Das allgegenwärtige Konzept der Vernetzung dynamisiert Kunst, ihre Rezipienten und Ausstellungsorte. Die Beziehungen zwischen diesen Feldern werden mit Hilfe physiologischer Metaphern definiert und visualisiert. Frühere Speicher und Archive geraten in einen prozessualen Sog, in dem alles fluktuiert, sich kurzweilig verknüpft, auflöst und in permanente Dialoge mit seiner Umgebung tritt - das virtuelle Museum gerät in aktuellen Standortbestimmungen in die definitorische Nähe des Künstlichen Lebens.
Dem Blitzschutz von Anlagen der regenerativen Energien kommt in Zukunft eine steigende Bedeutung zu. Dabei ist es notwendig zu berücksichtigen, dass die Schutzmaßnahmen technisch/wirtschaftlich ausgewogen sind. Erbauer, Besitzer oder Benutzer von netzautarken Hybridanlagen haben zu entscheiden, ob die Anlage einen Schutz braucht oder nicht. Um diese Entscheidung zu fällen, ist eine Risikoanalyse als erster Schritt sinnvoll. Diese muss dabei die für die Hybridanlage relevanten Schadenarten und spezifischen Parameter, Werte und Randbedingungen mit einbeziehen. Dazu ist die Hilfe eines Blitzschutzexperten sehr hilfreich.
The Virtual Clean Room - a new tool in teaching MST process technologies University education in high-technology fields like MST is not complete without intensive laboratory sessions. Students cannot fully grasp the complexity and the special problems related to the manufacturing of microsystems without a thorough hands-on experience in a MST clean room.
Im Studiengang Mikrosystemtechnik des Fachhochschulstandortes Zweibrücken werden zwei neue moderne Anlagen für die Herstellung von mikrotechnischen Komponenten in Betrieb genommen: Ein Oxidationsofen für Herstellung dünner Oxidschichten auf Silizium-Einkristallen und eine Belichtungsapparatur für die Fotolithografie - das Besondere an diesen Anlagen: Sie existieren nur virtuell, d.h. als Animationen in einer Computerwelt.
In: Unterrichtsblätter / Deutsche Telekom AG. 54. 2001. 7. S. 410-420 (11 S. ) Angesichts der zunehmenden Globalisierung von Informationen und Informationsdiensten können Inhalte (Contents) für mehrere unterschiedliche Dienste genutzt und auf verschiedenen Endgeräten ausgegeben werden. Hier setzt ein Content-Management-System (CMS) an, welches sowohl für die Kunden als auch für die Anbieter der unterschiedlich distribuierten Dienste Synergien und somit Einsparpotenziale bietet. Darüber hinaus werden für die Anbieter dieser Dienste durch die allgemeine Definition von Leistungstools und die Definition von Wertschöpfungsketten künftige Produktentwicklungen vereinheitlicht und optimiert werden. Mit der Entwicklung und Vertriebsfreigabe immer weiterer Informationsdienste, die von verschiedenen Dienste-Providern betrieben werden, ist der Bedarf an einer Koordinierung der Entwicklungen und Investitionen im Bereich der Content-Akquisition und des Content-Management (CM) bedeutend angestiegen. Neben Akquisition, lizenzrechtlichen Fragen und Verwaltung des im Rahmen von Diensten angebotenen Content rücken vor allem auch Fragen der Gestaltung von Content-Management-Plattformen (CMP) immer stärker in den Blickpunkt. Der Beitrag stellt die globalen Ergebnisse dar, die in einem Forschungs- und Entwicklungsauftrag des Zentralbereichs Innovationsmanagement der Deutschen Telekom zu diesem Thema ermittelt wurden. Es werden die Kernmodule für eine Content- Management-Plattform beschrieben, die die Anforderungen an die Bereitstellung vielfältiger Content-Angebote erfüllt. Die folgenden Themen werden behandelt: + Begriffsbestimmung, + Content- und Dienste-Portfolio, + Standard Content-Prozess, + synergetische Content-Plattform (sCP), + Modelle der sCP, + Aspekte beim Betrieb und + Nutzen eines Content-Management.
Fatigue analyses are conducted with the aim of verifying that thermal ratcheting is limited. To this end it is important to make a clear distintion between the shakedown range and the ratcheting range (continuing deformation). As part of an EU-supported research project, experiments were carried out using a 4-bar model. The experiment comprised a water-cooled internal tube, and three insulated heatable outer test bars. The system was subjected to alternating axial forces, superimposed with alternating temperatures at the outer bars. The test parameters were partly selected on the basis of previous shakedown analyses. During the test, temperatures and strains were measured as a function of time. The loads and the resulting stresses were confirmed on an ongoing basis during performance of the test, and after it. Different material models were applied for this incremental elasto-plastic analysis using the ANSYS program. The results of the simulation are used to verify the FEM-based shakedown analysis.
The load-carrying capacity or the safety against plastic limit states are the central questions in the design of structures and passive components in the apparatus engineering. A precise answer is most simply given by limit and shakedown analysis. These methods can be based on static and kinematic theorems for lower and upper bound analysis. Both may be formulated as optimization problems for finite element discretizations of structures. The problems of large-scale analysis and the extension towards realistic material modelling will be solved in a European research project. Limit and shakedown analyses are briefly demonstrated with illustrative examples.
Zuerst erschienen in Telekom-Praxis Ausgabe 2000. 24 S. Innovative multimediale Dienste werden durch die Globalisierung und Konvergenz der Märkte, als auch durch Provider-Strategien ausgerichtet. Grundlegende Innovationsfelder sind: Globaler Zugang, Navigation und Intelligenter Inhalt. Die MPEG-Standards - im besonderen MPEG-4 und MPEG-7 - helfen, die oben genannten Forderungen zu erfüllen. Weiterhin ermöglichen sie auch für die Provider und den Kunden eine Zukunftssicherheit zu geben und einen zeitlichen Bestand für innovative Produkte zu sichern. Die Aufwärtkompabilität der MPEG-Standards ermöglicht die Vermeidung von Überschneidung und die Erschließung neuer Dimensionen.
In: Unterrichtsblätter / Deutsche Telekom AG. 53. 2000. 7. S. 326-340. (15 S. ) Die Multimedia-Dienste erhalten durch die Datenreduktion bei der Kompressionstechnologie eine Wirtschaftlichkeit, die den breiteren Einsatz von breitbandigen Diensten erlaubt. Die Dienste benötigen für die verschiedenen Medien nicht mehr so große Übertragungs- und Speicherleistungen. Bei den entwickelten Verfahren, den so genannten MPEG-(Motion Picture Experts Group-)Standards, werden die Video- und Tonsignale in die digitale Ebene überführt und anschließend unrelevante Signalanteile entfernt. Der daraus resultierende Datenstrom benötigt weniger Bandbreite bei der Übertragung zum Endkunden. Die MPEG-Organisation wurde bereits im Jahre 1988 ins Leben gerufen und ist ein gemeinsames Gremium der beiden Organisationen ISO (International Standard Organization) und IEC (International Electrotechnical Commission), welches sich mit der Standardisierung von Kodier- und Kompressionsverfahren für die digitalen Bild-, Video und Audioformate befasst. Mittlerweile sind vier wichtige Standards mit MPEG-1, MPEG-2 und MPEG-4 verabschiedet worden sowie mit MPEG-7 in Vorbereitung. Da die Grundlagen zu MPEG-1, -2 und -Audio bereits in anderen Beiträgen behandelt wurden, werden hier ausschließlich die neuen bzw. aktuellen MPEG-Standards vorgestellt.
In: Unterrichtsblätter / Deutsche Telekom AG. 53. 2000. 11. S. 618-634 (17 S.) Wo man hinblickt: Turbulenzen, Unvorhersagbarkeiten, Unregelmäßigkeiten – kurz Chaos. Ist unsere wissenschaftliche Sichtweise falsch, alle Vorgänge des Kosmos auf die Basis der Ordnung abzubilden? – Nein. Mit Chaos ist nicht Fehlen jeglicher Ordnung und völlig regelloses Durcheinander gemeint, sondern – auf Grund der Vernetztheit der vielen Elemente, die miteinander eine Wechselwirkung haben – die Unberechenbarkeit der Naturprozesse. Die Chaostheorie erlaubt durch die Modellierung weit auseinander liegende Problemfelder miteinander zu verknüpfen, um dann in einem Modell die Zusammenhänge erkennbar zu machen. Mit Hilfe der Chaostheorie werden gesellschaftliche Prozesse abgebildet und dann mit einer Simulation neue, globale Strategien erstellt, um kritische Systempunkte (Systemelemente) zu erkennen. Der nachfolgende Beitrag beschreibt die Modellierung am Beispiel der Multimedia-Dienste und gibt mit einem umfassenden Glossar eine Einführung in die Begrifflichkeiten der Chaostheorie. Die Chaostheorie ist die mathematisch-physikalische Theorie zur Beschreibung von Systemen, die zwar durch Gesetzmäßigkeiten determiniert sind, bei denen aber kleine Änderungen der Anfangsbedingungen ein exponentielles Anwachsen von Störungen bewirken. Das Verhalten derartiger Systeme führt zur Ausbildung chaotischer Strukturen und ist langfristig nicht vorhersagbar. Die Chaostheorie ist beispielsweise in der nichtlinearen Optik, bei chemischen Reaktionen und der Wettervorhersage anwendbar.
Limit and shakedown analysis are effective methods for assessing the load carrying capacity of a given structure. The elasto–plastic behavior of the structure subjected to loads varying in a given load domain is characterized by the shakedown load factor, defined as the maximum factor which satisfies the sufficient conditions stated in the corresponding static shakedown theorem. The finite element dicretization of the problem may lead to very large convex optimization. For the effective solution a basis reduction method has been developed that makes use of the special problem structure for perfectly plastic material. The paper proposes a modified basis reduction method for direct application to the two-surface plasticity model of bounded kinematic hardening material. The considered numerical examples show an enlargement of the load carrying capacity due to bounded hardening.
The structural reliability with respect to plastic collapse or to inadaptation is formulated on the basis of the lower bound limit and shakedown theorems. A direct definition of the limit state function is achieved which permits the use of the highly effective first order reliability methods (FORM) is achieved. The theorems are implemented into a general purpose FEM program in a way capable of large-scale analysis. The limit state function and its gradient are obtained from a mathematical optimization problem. This direct approach reduces considerably the necessary knowledge of uncertain technological input data, the computing time, and the numerical error, leading to highly effective and precise reliability analyses.
zuerst erschienen in Telekom-Praxis Ausgabe 1997. Von Jürgen Lohr, Jahrgang 1962, beschäftigt mit Softwareentwicklung im Projekt "Interaktive Multimedia" bei der Deutschen Telekom AG, Entwicklungszentrum Berlin. 26 S. Der Beitrag befaßt sich mit dem Thema der universellen Kommunikationsplattform für neue, interaktive, multimediale Dienste und Anwendungen. Ausgehend von den Diensten wird ein Referenzmodell für offene Kommunikation und die Kommunikationsplattform kurz vorgestellt. Desweiteren wird die XAPI mit den Grundbegriffen, den Phasen der Kommunikation und dem Status Modell dargelegt. Ebenfalls werden die realisierten Service Provider erläutert. Abschließend werden zukünftige Vorhaben aus den Standardisierungsprojekten ITU und DAVIC sowie weitere Realisierungen aufgezeigt.
Jürgen Lohr, Jahrgang 1962, beschäftigt mit Softwareentwicklung im Projekt "Interaktive Multimedia" bei Telekom AG, Entwicklungszentrum Berlin. Zuerst erschienen in: Telekom-Praxis Ausgabe 1996. Inhaltsverzeichnis: 1. Einleitung 1.1 Einführung 1.2 Neue Dienste und Anwendungen 2 Modell zur Verteilung und Architektur 3 Technologien 3.1 Netzwerk 3.2 Computertechniken 3.3. Aufgaben der Server 4 Geplanter Einsatz der Pilotprojekte 4.1 Pilote der Telekom 4.2 Show-Case Berlin 5 Verwendete Server-Architektur 5.1 Berlin - SEL/Alcatel 5.2 Hanburg - Philips 5.3. Köln/Bonn - Digital, FUBA und Nokia 5.4 Nürnberg - Oracle, nCube und Sequent 5.5 Stuttgart - SEL/Alcatel, Hewlett Packard und Bosch 6 Zukünftige Aspekte 6.1 DVB 6.2 DAVIC 6.3 weitere Aspekte 7 Zusammenfassung 8 Schrifttum 9 verwendete Abkürzungen
Shock waves, explosions, impacts or cavitation bubble collapses may generate stress waves in solids causing cracks or unexpected dammage due to focussing, physical nonlinearity or interaction with existing cracks. There is a growing interest in wave propagation, which poses many novel problems to experimentalists and theorists.