Article
Refine
Year of publication
- 2024 (55)
- 2023 (80)
- 2022 (93)
- 2021 (109)
- 2020 (135)
- 2019 (123)
- 2018 (127)
- 2017 (109)
- 2016 (118)
- 2015 (126)
- 2014 (142)
- 2013 (139)
- 2012 (130)
- 2011 (182)
- 2010 (140)
- 2009 (199)
- 2008 (180)
- 2007 (176)
- 2006 (179)
- 2005 (188)
- 2004 (214)
- 2003 (154)
- 2002 (167)
- 2001 (157)
- 2000 (173)
- 1999 (153)
- 1998 (165)
- 1997 (154)
- 1996 (140)
- 1995 (147)
- 1994 (136)
- 1993 (108)
- 1992 (102)
- 1991 (74)
- 1990 (82)
- 1989 (79)
- 1988 (80)
- 1987 (77)
- 1986 (65)
- 1985 (59)
- 1984 (56)
- 1983 (47)
- 1982 (38)
- 1981 (39)
- 1980 (50)
- 1979 (43)
- 1978 (41)
- 1977 (22)
- 1976 (25)
- 1975 (18)
- 1974 (13)
- 1973 (6)
- 1972 (15)
- 1971 (7)
- 1970 (2)
- 1968 (2)
- 1967 (1)
Institute
- Fachbereich Medizintechnik und Technomathematik (1585)
- Fachbereich Wirtschaftswissenschaften (704)
- Fachbereich Elektrotechnik und Informationstechnik (631)
- Fachbereich Chemie und Biotechnologie (605)
- Fachbereich Energietechnik (605)
- INB - Institut für Nano- und Biotechnologien (538)
- Fachbereich Maschinenbau und Mechatronik (497)
- IfB - Institut für Bioengineering (444)
- Fachbereich Luft- und Raumfahrttechnik (376)
- Fachbereich Bauingenieurwesen (334)
Language
Document Type
- Article (5641) (remove)
Keywords
- Einspielen <Werkstoff> (7)
- Multimediamarkt (6)
- Rapid prototyping (5)
- avalanche (5)
- Earthquake (4)
- FEM (4)
- Finite-Elemente-Methode (4)
- LAPS (4)
- Rapid Prototyping (4)
- SLM (4)
zuerst erschienen in Telekom-Praxis Ausgabe 1997. Von Jürgen Lohr, Jahrgang 1962, beschäftigt mit Softwareentwicklung im Projekt "Interaktive Multimedia" bei der Deutschen Telekom AG, Entwicklungszentrum Berlin. 26 S. Der Beitrag befaßt sich mit dem Thema der universellen Kommunikationsplattform für neue, interaktive, multimediale Dienste und Anwendungen. Ausgehend von den Diensten wird ein Referenzmodell für offene Kommunikation und die Kommunikationsplattform kurz vorgestellt. Desweiteren wird die XAPI mit den Grundbegriffen, den Phasen der Kommunikation und dem Status Modell dargelegt. Ebenfalls werden die realisierten Service Provider erläutert. Abschließend werden zukünftige Vorhaben aus den Standardisierungsprojekten ITU und DAVIC sowie weitere Realisierungen aufgezeigt.
Jürgen Lohr, Jahrgang 1962, beschäftigt mit Softwareentwicklung im Projekt "Interaktive Multimedia" bei Telekom AG, Entwicklungszentrum Berlin. Zuerst erschienen in: Telekom-Praxis Ausgabe 1996. Inhaltsverzeichnis: 1. Einleitung 1.1 Einführung 1.2 Neue Dienste und Anwendungen 2 Modell zur Verteilung und Architektur 3 Technologien 3.1 Netzwerk 3.2 Computertechniken 3.3. Aufgaben der Server 4 Geplanter Einsatz der Pilotprojekte 4.1 Pilote der Telekom 4.2 Show-Case Berlin 5 Verwendete Server-Architektur 5.1 Berlin - SEL/Alcatel 5.2 Hanburg - Philips 5.3. Köln/Bonn - Digital, FUBA und Nokia 5.4 Nürnberg - Oracle, nCube und Sequent 5.5 Stuttgart - SEL/Alcatel, Hewlett Packard und Bosch 6 Zukünftige Aspekte 6.1 DVB 6.2 DAVIC 6.3 weitere Aspekte 7 Zusammenfassung 8 Schrifttum 9 verwendete Abkürzungen
Eine Einführung in die Anwendung der VOB in der baubetrieblichen Praxis im Rahmen der ergänzenden Schriften zu den Vorlesungen. Die Anwendung der VOB als Vertragsbedingung für einen Bauvertrag ist gängige Praxis, über die der Architekt im Baubetrieb umfassend informiert sein muß. Die Anwendung der VOB im Bauvertrag bedarf der vorherigen Vereinbarung zwischen den Vertragsparteien. Dabei muß die VOB im Ganzen vereinbart werden. Eine Veränderung dieser Bestimmungen führt zur teilweisen Unwirksamkeit der vertraglichen Vereinbarung. Der Architekt, der für seinen Bauherrn die Vergabeunterlagen zusammenstellen muß, haftet für Fehler bei der Formulierung oder der Zusammenstellung. Es ist daher für den Architekten unerläßlich, die vertraglichen Zusammenhänge zu kennen. Dieser Fachaufsatz soll zu einem sicheren Umgang mit der VOB als Vertragsgrundlage beitragen.
Textauszug: Nach dem Leistungsbild der HOAI hat der Architekt bei Planung und Baubetrieb vier Stationen der Kostenermittlung entsprechend der DIN 276, Abschnitt 2.3 abzuarbeiten. Der Architekt, der seiner Verantwortung gerecht werden will, wird hier weitere Kontrollmechanismen einbauen wollen. Über die genannten Kostenermittlungen hinaus kennt die DIN 276 daher noch das Erfordernis der Kostenkontrolle in Abschnitt 2.4 und der Kostensteuerung in Abschnitt 2.5. Die Kostensteuerung greift immer dann, wenn die Kostenkontrolle eine Abweichung des Kostenrahmens von den Sollwerten aufzeigt. Dazu müssen die Kontrollinstanzen dort eingebaut werden, wo Korrekturen noch möglich sind. Eine erste Kontrolle der Kosten ist daher zwischen Massenermittlung und Vergabe sinnvoll einzuflechten. Zu diesem Zeitpunkt kann die Planung noch verändert werden, was einen ersten steuernden Eingriff in die Baukosten ermöglicht, und zwar bevor die Angebotsunterlagen verschickt werden. Die Grundlagen zu einer effektiven Kostensteuerung werden in der Mengenermittlung der Leistungsphase 6 gelegt. Wenn dort die Mengen nicht sorgfältig und nachvollziehbar ermittelt wurden, wird der Soll- Ist- Abgleich während der Bauphase nicht frühzeitig genug gelingen, wenn nicht gar ganz entfallen. Es gilt also, dafür zu sorgen, dass die Mengenermittlung zur Vergabe mit entsprechender Sorgfalt und vor Allem „projektnah“ erfolgt. Schätzungen haben hier keine Berechtigung.
Sieht man sich die umfangreichen Betätigungsfelder für einen Projektsteuerer in den Publikationen der einschlägigen Verbände und der Anbieter etwas genauer an, so wird man feststellen, das nach der eigentlichen Projektvorbereitungsphase mit Wirtschaftlichkeitsberechnungen und Sicherstellung der Finanzierung erhebliche Überschneidungen zu den in der HOAI ausgewiesenen Tätigkeiten der weiteren Planungsbeteiligten, insbesondere des Gebäudeplaners, also des Architekten bestehen. Geht man nun davon aus, dass der Bauherr diese Leistungen nicht doppelt bezahlen will, wäre die logische Konsequenz aus der vollumfänglichen Beauftragung eines Projektsteuerers die Verminderung des Auftragsumfangs an den Architekten, verbunden mit einer Honorarminderung für den Architekten. Damit bricht dem Architekten bei eingehender Betrachtung am Ende mehr als die Hälfte seiner Tätigkeit und damit seiner Grundlage zur Honorarerzielung weg. Der Bauherr muss in erster Linie seine Wünsche definieren und sein Budget bestimmen. Er beauftragt die Planungsbeteiligten und nimmt deren Leistungen entgegen. Sein Problem dabei ist, dass er diese Leistung nicht beurteilen kann, weder in Bezug auf deren Vollständigkeit, noch in Bezug auf deren Inhalt. Hier steht der Projektsteuerer im eigentlichen Sinne. Er muss wissen, was die Planungsbeteiligten für ihr Geld zu leisten haben und wie er diese Leistungen durchsetzen kann. Letztendlich sorgt er dann aber auch dafür, das die Architektenleistungen, also Planung und Ausschreibungsunterlagen vom Bauherrn verstanden werden. Warum aber kann der Architekt selbst seine Leistungen und damit den Nachweis der Leistungserfüllung nicht selbst dem Bauherrn verständlich und damit glaubhaft machen? Es liegt also letztlich in der Hand der Architekten, ob ihr Betätigungsfeld weiter durch in die Planung und Gestaltung eingreifende, zusätzliche Projektsteuerer und Generalunternehmer eingeengt oder sogar weggenommen werden kann. Die Frage, wer das Baugeschehen steuert und lenkt bleibt solange ungeklärt, wie die Architekten dieses Tätigkeitsfeld des Architekten im Baubetrieb weiterhin nur unzulänglich ausfüllen können und wollen.
Table of Contents Introduction 1. Generative Manufacturing Processes 2. Classification of Generative Manufacturing Processes 3. Application of Generative Processes on the Fabrication of Ceramic Parts 3.1 Extrusion 3.2 3D-Printing 3.3 Sintering – Laser Sintering 3.4 Layer-Laminate Processes 3.5 Stereolithography (sometimes written: Stereo Lithography) 4. Layer Milling 5. Conclusion - Vision
Als um 1987 ein Verfahren namens Stereolithographie und ein Stereolithography Apparatus (SLA) vorgestellt wurden, war der Traum von der Herstellung beliebiger dreidimensionaler Bauteile direkt aus Computerdaten und ohne bauteilspezifische Werkzeuge Realität geworden. Ein Anwendungs-Szenario wurde gleich mitgeliefert. Diese Technologie würde es möglich machen, die gesamte Ersatzteilversorgung der Amerikanischen Pazifikflotte mittels ein paar dieser Maschinen, umfangreicher Datenstätze und genügend Rohmaterial vor Ort auf einem Flugzeugträger direkt nach Bedarf zu fertigen. Diese Vorstellung definierte schon damals die direkte digitale Fertigung, das Rapid Manufacturing. In der Realität bestanden die mit diesem Verfahren hergestellten Bauteile nur aus Kunststoff, waren ungenau, bruchempfindlich und klebrig und allein in der Produktentwicklung, eben als Prototypen zu benutzen. Sie waren schnell verfügbar, weil zu Ihrer Herstellung keine Werkzeuge benötigt wurden. Folgerichtige und zudem modern hießen sie: Rapid Prototyping. Rapid Prototyping wurde schnell zum Synonym eines neuen Zweiges der Fertigungstechnik, der Generativen Fertigungstechnik. Die weitere Entwicklung brachte neue Verfahren, höhere Genauigkeiten, verbesserte Werkstoffe und neue Anwendungen. Die Herstellung von Negativen, also Werkzeugen, mit dem gleichen Verfahren wurde marketing-getrieben Rapid Tooling genannt und als die ersten Bauteile nicht mehr als Prototypen, sondern als Endprodukte eingesetzt wurden, nannte man dies Rapid Manufacturing - das Ziel war erreicht. War das Ziel wirklich erreicht? Ist es Rapid Manufacturing, wenn ein generativ gefertigtes Bauteil die gewünschte Spezifikation erreicht? Was muss passieren, damit aus dem Phänomen Rapid Prototyping eine Strategie wird, die geeignet ist, einen Paradigmenwechsel von der heutigen Hersteller-induzierten Massenproduktion von Massenartikeln zur Verbraucher-induzierten (und verantworteten) Massenproduktion von Einzelteilen für jedermann ermöglichen und möglicherweise unsere Arbeits- und Lebensformen tiefgreifend zu beeinflussen? Im Beitrag wird der Begriff der (Fertigungs-) Strategie „Rapid Manufacturing“ näher beleuchtet. Es wird diskutiert, welche Maßnahmen auf der technischen und der operative Ebene getroffen werden müssen, damit die generative Fertigungstechnik im Sinne dieser Strategie umgesetzt werden kann. Beispiele belegen, dass diese Entwicklung bereits begonnen hat und geben Anregungen für eine konstruktive Diskussion auf der RapidTech 2006.
Die Berechnung der Durchströmung von Bauteilen ist gegenüber derjenigen von umströmten Bauteilen deutlich im Hintertreffen. Das liegt vor allem an der fehlenden Verfügbarkeit geeigneter optisch transparenter Modellkanäle für die experimentelle Analyse. Der Beitrag stellt ein Verfahren zur Herstellung transparenter durchströmter Geometrien auf der Basis generativ gefertigter Urmodelle vor. Damit können beliebig komplexe Innenströmungen optisch analysiert werden. Anhand von zwei Beispielen aus der Medizin, der Modellierung der oberen Atemwege und des Bronchialbaums, wird das Verfahren vorgeführt. Der generative Bauprozess mittels 3D-Printing wird beschrieben und die Abformung in transparentem Silikon gezeigt. Schließlich werden beispielhaft der Messaufbau und Ergebnisse der Anwendung vorgestellt. Das Verfahren bildet die Grundlage für die Analyse und Berechnung komplexer Innenströmungen und trägt somit zur Verbesserung zahlreicher technischer Anwendungen bei.
Die generative Herstellung von Kunststoffbauteilen hat im Gewand des Rapid Prototyping die Produktentwicklung nachhaltig positiv beeinflusst und ist im Begriff als Rapid Manufacturing die Fertigung zu revolutionieren. Je mehr sich die besonderen Eigenschaften generativ gefertigter Kunststoffbauteile herumsprechen, desto lauter wird der Ruf nach Metallbauteilen. Die Entwicklung entsprechender Prozesse läuft auf Hochtouren, kann aber bisher aber erst vereinzelt Erfolge vorweisen. Dabei wären es gerade die Metallbauteile, die ausgestattet mit den besonderen Merkmalen generativ gefertigter Werkstücke, in vielen Branchen einen deutlichen Entwicklungsschub auslösen könnten. Für den potenziellen Anwender ist dabei besonders verwirrend, dass die unterschiedlichsten Ansätze nebeneinander verfolgt werden. Im Folgenden soll daher der Versuche unternommen werden, dieses weite Feld systematisiert darzustellen und Möglichkeiten und Trends zu erläutern.
Generative Verfahren sind seit etwa 1987 in den USA und seit etwa 1990 in Europa und Deutschland in Form von Rapid Prototyping Verfahren bekannt und haben sich in dieser Zeit von eher als exotisch anzusehenden Modellbauverfahren zu effizienten Werkzeugen für die Beschleunigung der Produktentstehung gewandelt. Mit der Weiterentwicklung der Verfahren und insbesondere der Materialien wird mehr und mehr das Feld der direkten Anwendung der Rapid Technologie zur Fertigung erschlossen. Rapid Technologien werden daher zum Schlüssel für neue Konstruktionssystematiken und Fertigungsstrategien.
Cement augmentation is an emerging surgical procedure in which bone cement is used to infiltrate and reinforce osteoporotic vertebrae. Although this infiltration procedure has been widely applied, it is performed empirically and little is known about the flow characteristics of cement during the injection process. We present a theoretical and experimental approach to investigate the intertrabecular bone permeability during the infiltration procedure. The cement permeability was considered to be dependent on time, bone porosity, and cement viscosity in our analysis. In order to determine the time-dependent permeability, ten cancellous bone cores were harvested from osteoporotic vertebrae, infiltrated with acrylic cement at a constant flow rate, and the pressure drop across the cores during the infiltration was measured. The viscosity dependence of the permeability was determined based on published experimental data. The theoretical model for the permeability as a function of bone porosity and time was then fit to the testing data. Our findings suggest that the intertrabecular bone permeability depends strongly on time. For instance, the initial permeability (60.89 mm4/N.s) reduced to approximately 63% of its original value within 18 seconds. This study is the first to analyze cement flow through osteoporotic bone. The theoretical and experimental models provided in this paper are generic. Thus, they can be used to systematically study and optimize the infiltration process for clinical practice.
An optimization method is developed to describe the mechanical behaviour of the human cancellous bone. The method is based on a mixture theory. A careful observation of the behaviour of the bone material leads to the hypothesis that the bone density is controlled by the principal stress trajectories (Wolff’s law). The basic idea of the developed method is the coupling of a scalar value via an eigenvalue problem to the principal stress trajectories. On the one hand this theory will permit a prediction of the reaction of the biological bone structure after the implantation of a prosthesis, on the other hand it may be useful in engineering optimization problems. An analytical example shows its efficiency.
This work is an attempt to answer the question: How to use convex programming in shakedown analysis of structures made of materials with temperature-dependent properties. Based on recently established shakedown theorems and formulations, a dual relationship between upper and lower bounds of the shakedown limit load is found, an algorithmfor shakedown analysis is proposed. While the original problem is neither convex nor concave, the algorithm presented here has the advantage of employing convex programming tools.
The structural reliability with respect to plastic collapse or to inadaptation is formulated on the basis of the lower bound limit and shakedown theorems. A direct definition of the limit state function is achieved which permits the use of the highly effective first order reliability methods (FORM) is achieved. The theorems are implemented into a general purpose FEM program in a way capable of large-scale analysis. The limit state function and its gradient are obtained from a mathematical optimization problem. This direct approach reduces considerably the necessary knowledge of uncertain technological input data, the computing time, and the numerical error, leading to highly effective and precise reliability analyses.
The Virtual Clean Room - a new tool in teaching MST process technologies University education in high-technology fields like MST is not complete without intensive laboratory sessions. Students cannot fully grasp the complexity and the special problems related to the manufacturing of microsystems without a thorough hands-on experience in a MST clean room.
Im Studiengang Mikrosystemtechnik des Fachhochschulstandortes Zweibrücken werden zwei neue moderne Anlagen für die Herstellung von mikrotechnischen Komponenten in Betrieb genommen: Ein Oxidationsofen für Herstellung dünner Oxidschichten auf Silizium-Einkristallen und eine Belichtungsapparatur für die Fotolithografie - das Besondere an diesen Anlagen: Sie existieren nur virtuell, d.h. als Animationen in einer Computerwelt.
Kunstwerke sowie ihre Präsentation und Vermittlung werden zunehmend von digitalen Technologien unterstützt. Virtuelle Ausstellungen, Internet-Projekte und komplexe Datenarchive stellen das Kunstwerk in einen medialen Kontext, der weit über das Moment einer technischen Reproduzierbarkeit hinausgeht. Das allgegenwärtige Konzept der Vernetzung dynamisiert Kunst, ihre Rezipienten und Ausstellungsorte. Die Beziehungen zwischen diesen Feldern werden mit Hilfe physiologischer Metaphern definiert und visualisiert. Frühere Speicher und Archive geraten in einen prozessualen Sog, in dem alles fluktuiert, sich kurzweilig verknüpft, auflöst und in permanente Dialoge mit seiner Umgebung tritt - das virtuelle Museum gerät in aktuellen Standortbestimmungen in die definitorische Nähe des Künstlichen Lebens.
The load-carrying capacity or the safety against plastic limit states are the central questions in the design of structures and passive components in the apparatus engineering. A precise answer is most simply given by limit and shakedown analysis. These methods can be based on static and kinematic theorems for lower and upper bound analysis. Both may be formulated as optimization problems for finite element discretizations of structures. The problems of large-scale analysis and the extension towards realistic material modelling will be solved in a European research project. Limit and shakedown analyses are briefly demonstrated with illustrative examples.