Refine
Year of publication
Institute
- Fachbereich Medizintechnik und Technomathematik (2080)
- Fachbereich Elektrotechnik und Informationstechnik (1184)
- Fachbereich Wirtschaftswissenschaften (1164)
- Fachbereich Energietechnik (1116)
- Fachbereich Chemie und Biotechnologie (917)
- Fachbereich Maschinenbau und Mechatronik (879)
- Fachbereich Luft- und Raumfahrttechnik (798)
- Fachbereich Bauingenieurwesen (711)
- IfB - Institut für Bioengineering (690)
- INB - Institut für Nano- und Biotechnologien (616)
Language
- German (5134)
- English (4935)
- Russian (14)
- Portuguese (6)
- Italian (5)
- Multiple languages (5)
- Spanish (3)
- Dutch (2)
Document Type
- Article (5659)
- Conference Proceeding (1650)
- Book (1085)
- Part of a Book (571)
- Bachelor Thesis (327)
- Patent (177)
- Report (102)
- Doctoral Thesis (82)
- Conference: Meeting Abstract (76)
- Other (76)
Keywords
- Amtliche Mitteilung (71)
- Bachelor (33)
- Aachen University of Applied Sciences (31)
- Master (31)
- Prüfungsordnung (31)
- Bauingenieurwesen (30)
- Lesbare Fassung (28)
- Biosensor (25)
- Fachhochschule Aachen (23)
- Illustration (23)
Zugriffsart
- campus (2155)
- weltweit (1887)
- bezahl (783)
- fachbereichsweit (FB4) (34)
Anwendungsmoeglichkeiten von Schweissrobotern und automatisierten Schweisssystemen im Schiffbau
(1982)
Qualitaetssicherung in der automatisierten schweisstechnischen Fertigung durch Einsatz von Sensoren
(1983)
Qualitaetssicherung in der automatisierten schweisstechnischen Fertigung durch Einsatz von Sensoren
(1983)
Virtual Reality und Simulation als integrierte Werkzeuge für die Entwicklung mechatronischer Systeme
(2001)
Rocket engine test facilities and launch pads are typically equipped with a guide tube. Its purpose is to ensure the controlled and safe routing of the hot exhaust gases. In addition, the guide tube induces a suction that effects the nozzle flow, namely the flow separation during transient start-up and shut-down of the engine. A cold flow subscale nozzle in combination with a set of guide tubes was studied experimentally
to determine the main influencing parameters.
Sieht man sich die umfangreichen Betätigungsfelder für einen Projektsteuerer in den Publikationen der einschlägigen Verbände und der Anbieter etwas genauer an, so wird man feststellen, das nach der eigentlichen Projektvorbereitungsphase mit Wirtschaftlichkeitsberechnungen und Sicherstellung der Finanzierung erhebliche Überschneidungen zu den in der HOAI ausgewiesenen Tätigkeiten der weiteren Planungsbeteiligten, insbesondere des Gebäudeplaners, also des Architekten bestehen. Geht man nun davon aus, dass der Bauherr diese Leistungen nicht doppelt bezahlen will, wäre die logische Konsequenz aus der vollumfänglichen Beauftragung eines Projektsteuerers die Verminderung des Auftragsumfangs an den Architekten, verbunden mit einer Honorarminderung für den Architekten. Damit bricht dem Architekten bei eingehender Betrachtung am Ende mehr als die Hälfte seiner Tätigkeit und damit seiner Grundlage zur Honorarerzielung weg. Der Bauherr muss in erster Linie seine Wünsche definieren und sein Budget bestimmen. Er beauftragt die Planungsbeteiligten und nimmt deren Leistungen entgegen. Sein Problem dabei ist, dass er diese Leistung nicht beurteilen kann, weder in Bezug auf deren Vollständigkeit, noch in Bezug auf deren Inhalt. Hier steht der Projektsteuerer im eigentlichen Sinne. Er muss wissen, was die Planungsbeteiligten für ihr Geld zu leisten haben und wie er diese Leistungen durchsetzen kann. Letztendlich sorgt er dann aber auch dafür, das die Architektenleistungen, also Planung und Ausschreibungsunterlagen vom Bauherrn verstanden werden. Warum aber kann der Architekt selbst seine Leistungen und damit den Nachweis der Leistungserfüllung nicht selbst dem Bauherrn verständlich und damit glaubhaft machen? Es liegt also letztlich in der Hand der Architekten, ob ihr Betätigungsfeld weiter durch in die Planung und Gestaltung eingreifende, zusätzliche Projektsteuerer und Generalunternehmer eingeengt oder sogar weggenommen werden kann. Die Frage, wer das Baugeschehen steuert und lenkt bleibt solange ungeklärt, wie die Architekten dieses Tätigkeitsfeld des Architekten im Baubetrieb weiterhin nur unzulänglich ausfüllen können und wollen.
Against the background of growing data in everyday life, data processing tools become more powerful to deal with the increasing complexity in building design. The architectural planning process is offered a variety of new instruments to design, plan and communicate planning decisions. Ideally the access to information serves to secure and document the quality of the building and in the worst case, the increased data absorbs time by collection and processing without any benefit for the building and its user. Process models can illustrate the impact of information on the design- and planning process so that architect and planner can steer the process. This paper provides historic and contemporary models to visualize the architectural planning process and introduces means to describe today’s situation consisting of stakeholders, events and instruments. It explains conceptions during Renaissance in contrast to models used in the second half of the 20th century. Contemporary models are discussed regarding their value against the background of increasing computation in the building process.
The research group focuses on the characteristics in the land-and cityscapes of the Drielanden-zone, which contribute to generate common identities, as well as on those features that trigger differences and specificities of the adjacent countries that enrich the perception of the zone. In this research, the instruments of cartography and land survey system serve to detect and localize the fragmented appearance of relevant historic elements. These analytic procedures help to develop strategies for infrastructures and processes that gradually initiate local forms of cross-border tourism. The architectural research displays how top-down and bottom-up interventions can be combined in order to guarantee a sustainable use and development of the considered area.
Architects and civil engineers work together regularly during their professional days and are irreplaceable for each other. This co-operation is sometimes made more difficult by the differences in their disciplinary languages and approaches. Structures are evaluated by architects on the basis of criteria such as spatial impact and usability, while civil engineers analyze them more closely by their bearing and deformation properties, as well as by constructive aspects. This diversity of assessment criteria and approaches is often continued in both academic disciplines in the view on structures.
Within the framework of the Exploratory Teaching Space (ETS), a funding program to improve teaching at RWTH Aachen University and to promote new teaching concepts, a project was carried out jointly by the Junior Professorship of Tool-Culture at the Faculty of Architecture and the Institute of Structural Concrete at the Faculty of Civil Engineering. The aim of the project is to present buildings in such a way that the differences in perception between architects and civil engineers are reduced and the common understanding is promoted.
The project develops a database, which contains a collection of striking buildings from Aachen and the surrounding area. The buildings are categorized according to terms that come from both disciplinary areas. The collection can be freely explored or crossed through learning trails. The medium of film plays a special role in presenting the buildings. The buildings are assigned to different categories of load bearing structures as linear, planar and spatial structures, and further to different types of material, functional programs and spatial characteristics. Since the buildings are located in the direct vicinity of Aachen, they can be visited by the students. This makes them more sensitive to their environment. Intrinsic motivation, as well as implicit learning is encouraged. The paper will provide a detailed report of the project, its implementation, the feedback of the students and the plans for further development.
Concept - this is a key term in architectural discourse. However, all too often it is used imprecisely or merely for marketing purposes. What is a concept actually? This publication moves between design theory and design practice and follows the history of the definition of concept in architecture, leading to the formulation of a specifically instrumental and operative definition. It bases concept in architecture on its strategic potential in design decision-making processes. In the changing profession of the designing architect, decisions are increasingly made in multidisciplinary groups. Concept can serve as a dialogic instrument in the process, making it possible to process heterogeneous information from a range of spheres of knowledge. The effective presentation of selected information becomes a relevant interface in the design process, which has a significant influence on the quality of the design.
Robustheit
(2017)
Heimat entwerfen?
(2019)
Können wir Skizzenblätter, die gemischte Systeme von Text und Bildanteilen zeigen, als räumliche und zeitliche Verdichtung von Reflexionsmilieus verstehen? Wie wirkt sich die durch die räumliche Begrenzung des Blatts bedingte gleichzeitige Anwesenheit von Text und Bild aus, welche Wechselwirkungen entfalten sich? Diese Fragenstellungen führen zur Definition der ‚Multidimensionalen Arbeitsblätter‘, die als geeignetes Medium der Analyse von entwerferischen Denkprozessen verstanden werden. Anhand von fünf Beispielen wird beschrieben, wie durch dekompositorische Prozeduren Zeichnungsgenealogien sichtbar gemacht werden können, die intensive Auskunft über Entwurfshandlungen geben.
Cento Tavole
(2016)
Organizzare l’addizione
(2014)
In the introduction to their book "What is philosophy?" Gilles Deleuze and Felix Guattari deplore the inflationary and trivialised use of the term concept: "Finally, the most shameful moment came when computer science, marketing, design and advertising, all the disciplines of communication, seized hold of the word concept itself and said: 'This is our concern, we are the creative ones, we are the ideas men! We are the friends of the concept, we put in our computers.' " This doctoral thesis shares the concern of Gilles Deleuze and Felix Guattari, but still, it is a thesis in architecture and thus collocated within the field of the representatives of the "ideas men". It engages in architectural design theory, and refers in particular to the investigation of methodological approaches within the design process. Therefore, the thesis will not contribute to the philosophical dimension of the term, but intends to overcome its imprecise use within the architectural discourse, in compliance with Eugène Viollet-le-Duc's admonition relative to vague definitions: "Dans les arts, et dans l'architecture en particulier, les définitions vagues ont causé bien des erreurs, ont laissé germer bien des préjugés, enraciner bien des idées fausses. On met un mot en avant, chacun y attache un sens différent." The term concept in architecture is very often used as pure marketing collateral, it serves to sell an idea, a product, a design. Its functional applicability is reduced to a special manner of illustration, produced as one of the various design presentation documents at the end of the design process. In contrast, the original contribution of this thesis aims to give a precise, instrumental dimension to the term concept: the concept is the expression of a specific logic, capable to guide the decisional sequences of the process and thus to improve the quality of the designed projects. The motivation to define a specific instrumentality of the concept is closely connected to the issue of interdisciplinarity in the architects’ profession. The interdisciplinary character of the architectural field is widely accepted and discussed as such, but the thesis intends to give a more precise definition of the various kinds of competences involved by classifying them into either the internal or the external group. The traditional notion of interdisciplinarity, predominantly seen as collaboration between architects and technical experts, and, most notably, the historical, sometimes contentious, relationship between architects and engineers is described. Referring to recent developments, the transformation of the architect’s role within the professional sphere, marked by an increasing importance of diverse influences and linked to a growing risk of marginalisation, is illustrated. The thesis describes different ways to adapt to this specific kind of interdisciplinarity, which generally requires the architect’s ability to connect and to integrate various contents, different points of view and diverse scales. On the other hand, the big potential which is implicit in the interdisciplinary field is exposed: architects can inform their core competence, the design, by extracting contents of different disciplinary competences, pertaining or not pertaining to their own professional field. They have the possibility to cross fields of external competences in a selective way and by doing so they can build up a corpus of knowledge capable to generate and communicate guidelines and systematic methodologies for their design. At the end, the analysis of these two aspects allows the definition of a more specific professional profile of the architect as specialist of interdisciplinarity. The thesis is concerned with the theories around the design process. The design process is seen as open to inspection and critical evaluation, with major focus on the decisional sequences which characterise it. It concentrates on the process’ descriptiveness and the degree of self-conscious approaches applied within it. The importance of regulative, strategic mechanisms is illustrated by testimonies taken from a series of design researches and leads to the functional definition of the figure of the concept as representation of a coherent set of ideas, as generator of a project-specific system of rules and as communicator of decisional strategies. The concept's function is furthermore defined as communicative interface which generates and transmits the system of rules authoritative for all the disciplinary competences involved in the design process, a communicative interface which constitutes a basis of shared convictions capable to increase the efficiency of collaboration. Furthermore, the concept's capacity to explore and elaborate the contents of external disciplines is identified as a possible methodological approach to innovative design thinking. The approach to a specific functional definition of the concept is continued by the description of a series of instruments that are simultaneously generating and communicating it. It is outlined to which degree the concept itself is already the result of an ideational process, collocated within the initial phase of the design proceedings, serving as a guideline to them, but still continuously evolving and adapting in its progression. In addition, it is illustrated how all the diverse instruments of the concept are operational media through which the knowledge transition between different disciplines can occur. The considerations about the concept as operational instrument of design are elaborated with regard to a number of examples of didactical applications that are particularly involved in the development and teaching of specific design methods. These examples illustrate the interrelations between design theory and design education. They are derived from very different schools of architecture and diverse mindsets, but all of them transmit models of conceptual design thinking.
Unsere unternehmerische Umwelt befindet sich in einem zunehmend dynamischen Wandel. Dies führt dazu, dass Herausforderungen, denen sich Unternehmen stellen müssen, immer komplexer werden. Hier gilt es zunehmend, eine Balance zwischen verschiedenen Spannungsfeldern zu erreichen. Sogenannte Megatrends stellen die Treiber dieses Wandels dar. Als Megatrend werden nach dem Zukunftsinstitut (2010a) richtungsweisende Veränderungstendenzen aufgefasst, die alle Bereiche des Lebens sowohl individuell als auch gesellschaftlich beeinflussen und langfristige Auswirkungen haben.
Laut Zukunftsinstitut (2010) stellt die Individualisierung eine langfristige und nachhaltige Veränderung dar, die die gesamte Gesellschaft (den einzelnen Menschen, Unternehmen, den Staat) betrifft und Auswirkungen auf nahezu alle Lebensbereiche (z. B. Arbeit, Wohnen, Partnerschaft) hat. Die Individualisierung beschreibt dabei die Entwicklung hin zur Fokussierung persönlicher Interessen und Lebensentscheidungen der einzelnen Person (Kunze, Individualisierung, 2011). Der Grund für diese Entwicklung sind laut Kunze (Individualisierung, 2011) Treiber wie steigendes Vermögen, Bildung und Mobilität, was die einzelne Person unabhängiger von größeren Gemeinschaften macht und mehr Freiheit zur Selbstverwirklichung bietet. Als eine Konsequenz daraus werden Wertevorstellungen nicht mehr einfach hingenommen, sondern für die eigene Person überprüft und individualisiert (Kunze, Individualisierung, 2011). So wies Beck bereits 1996 darauf hin, dass Individualisierung meint „erstens die Auflösung und zweitens die Ablösung industriegesellschaftlicher Lebensformen durch andere, in denen die Einzelnen ihre Biographie selbst herstellen, inszenieren, zusammenflickschustern müssen“ (Beck, Die Erfindung des Politischen, 1996, S. 150).
Ausblick: Der individualitätsbezogene Diversity Management-Ansatz als Antwort auf Individualisierung
(2015)
Der Megatrend Individualisierung fordert von Unternehmen, ihre Strategien und Prozessabläufe bei zunehmender Globalisierung grundlegend zu überdenken. Während Strategien und Prozessabläufe im Unternehmen Standards unterliegen, entwickelt sich unsere Gesellschaft immer stärker zu einem individuumszentrierten System, in dem es gilt, Werte und Lebensstile der Individuen zu berücksichtigen und derart wertzuschätzen, dass Mitarbeitende motiviert und mit hoher Bindung an das Unternehmen die anstehenden Leistungen für das Unternehmen erbringen. Im Konzept DiM sind Standardisierung und Individualisierung keine gegensätzlichen Aspekte, da bei DiM neben der Betrachtung des betriebswirtschaftlichen Nutzens dieses Konzepts für Unternehmen die Wertschätzung des Individuums als genuines Merkmal betont wird.
The invention relates to a method for production of single-stranded macronucleotides by amplifying and ligating an extended monomeric single-stranded target nucleic acid sequence (targetss) into a repetitive cluster of double-stranded target nucleic acid sequences (targetds), and subsequently cloning the construct into a vector (aptagene vector). The aptagene vector is transformed into host cells for replication of the aptagene and isolated in order to optain single-stranded target sequences (targetss). The invention also relates to single-stranded nucleic acids, produced by a method of the invention.
Die wachsende Produktpalette von z. B. Pharmazeutika geht mit einer steigenden Nachfrage für hochsensitive/schonende Aufreinigungstechniken einher. Bisherige Verfahren führen oft zu geringer Reinheit und verminderter Bioaktivität, zeigen eine Limitation der Analytengröße oder bedingen dessen Modifikation. Durch die Kombination von mikroskaligen Magnetpartikeln und spezifisch wechselwirkenden Einzelstrang-DNA-Oligonukleotiden, den sog. ssDNA-Aptameren, sind eine höhere Selektivität/Reinheit und eine Automatisierung möglich. In diesem Kontext werden zum einen ssDNA-Amplifikationstechniken und zum anderen der praktische Einsatz von Aptameren in einer Magnetseparation vorgestellt. Die ssDNA-Synthese basiert auf einem In-vivo-dsDNA-Produktionsschritt mittels eines rekombinanten Escherichia coli. Die als High-copy-Plasmid organisierte Sequenz wird in vitro durch Kombination verschiedener enzymatischer Reaktionen in die funktionelle ssDNA überführt. Diese Technik bedingt nur minimale Instrumentierung bzw. Prozessregelung. Die zweite Synthesetechnik wird in Form eines In-vitro-Amplifikationsverfahrens realisiert und beruht auf dem Prinzip einer PCR (Potenzial zu einer Automatisierung bzw. Miniaturisierung). Die gewonnenen Aptamere werden im Anschluss in einem auf Magnetpartikeln basierten Trennverfahren zur Isolationvon 6xHis-tag-Proteinen bezüglich ihrer Eigenschaften untersucht.
In der Biotechnologie stellt Einzelstrang-DNA (ssDNA) eine Schlüsselrolle dar und fungiert z. B. als Baustein für die nanoskalige Feinmechanik oder als Affinitätsligand, ein sog. Aptamer. Hinsichtlich der industriellen Verwendung bieten Aptamere im Vergleich zu Antikörpern viele Vorteile, wie z. B. eine gute Renaturierung bzw. die Selektion für cytotoxische Moleküle. Aktuell wächst die Nachfrage für chimäre Aptamere von bis zu 200 n, um die simultane Bindung bzw. die Modifikation mehrerer Moleküle zu realisieren. Bis heute wird ssDNA mittels einer sequentiellen Synthese hergestellt, die eine Effizienz von ca. 99,5 % je Zyklus und bereits bei einer Produktlänge von 100 n nur noc hAusbeuten von max. 60 % zeigt. Um dem Bedarf an ssDNA im Bereich > 100 n zu entsprechen, wurden zwei enzymatische Verfahren zur Produktion dieser Makronukleotide entworfen. Die erste Technik basiert auf einerFestphasen-PCR und ermöglicht sowohlein Primer- als auch ein Templatrecycling. Das zweite Verfahren beruht auf einer Plasmidbasierten In-vivo-Amplifikation, der sog. AptaGENE®-Technologie. In einer einzigen Klonierung werden bis zu 100 Kopien des Monomers in einen Vektor kloniert. Nach einer Transformation folgt der reguläre Produktionsprozess in Form einer Kultivierung, Plasmidpräparation und sequenziellen Aufarbeitung von bis zu 6 · 10¹⁵ Makronukleotiden pro Milliliter Fermentationsvolumen.
Thermodynamic stability, configurational motions and internal forces of haemoglobin (Hb) of three endotherms (platypus, Ornithorhynchus anatinus; domestic chicken, Gallus gallus domesticus and human, Homo sapiens) and an ectotherm (salt water crocodile, Crocodylus porosus) were investigated using circular dichroism, incoherent elastic neutron scattering and coarse-grained Brownian dynamics simulations. The experimental results from Hb solutions revealed a direct correlation between protein resilience, melting temperature and average body temperature of the different species on the 0.1 ns time scale. Molecular forces appeared to be adapted to permit conformational fluctuations with a root mean square displacement close to 1.2 Å at the corresponding average body temperature of the endotherms. Strong forces within crocodile Hb maintain the amplitudes of motion within a narrow limit over the entire temperature range in which the animal lives. In fully hydrated powder samples of human and chicken, Hb mean square displacements and effective force constants on the 1 ns time scale showed no differences over the whole temperature range from 10 to 300 K, in contrast to the solution case. A complementary result of the study, therefore, is that one hydration layer is not sufficient to activate all conformational fluctuations of Hb in the pico- to nanosecond time scale which might be relevant for biological function. Coarse-grained Brownian dynamics simulations permitted to explore residue-specific effects. They indicated that temperature sensing of human and chicken Hb occurs mainly at residues lining internal cavities in the β-subunits.
Picosecond dynamics in haemoglobin from different species: A quasielastic neutron scattering study
(2014)
Limit loads of circumferentially flawed pipes and cylindrical vessels under internal pressure
(2006)
Upper and lower bound theorems of limit analyses have been presented in part I of the paper. Part II starts with the finite element discretization of these theorems and demonstrates how both can be combined in a primal–dual optimization problem. This recently proposed numerical method is used to guide the development of a new class of closed-form limit loads for circumferential defects, which show that only large defects contribute to plastic collapse with a rapid loss of strength with increasing crack sizes. The formulae are compared with primal–dual FEM limit analyses and with burst tests. Even closer predictions are obtained with iterative limit load solutions for the von Mises yield function and for the Tresca yield function. Pressure loading of the faces of interior cracks in thick pipes reduces the collapse load of circumferential defects more than for axial flaws. Axial defects have been treated in part I of the paper.
Suburethral slings as well as different meshes are widely used treating stress urinary incontinence and prolaps in women. With the development of MiniSlings and special meshes using less alloplastic material anchorage systems become more important to keep devices in place and to put some tension especially on the MiniSlings. To date, there are many different systems of MiniSlings of different companies on the market which differ in the structure of the used meshes and anchors. A new objective measurement method to compare different properties of MiniSling systems (mesh and anchor) is presented in this article. Ballistic gelatine acts as soft tissue surrogate. Significant differences in parameters like pull-out strength of anchors or shrinkage of meshes under loading conditions have been determined. The form and size of the anchors as well as the structural stability of the meshes are decisive for a proper integration. The tested anchorings sytems showed markedly different mechanical function at their respective load bearing capacity. As the stable fixation of the device in tissue is a prerequisite for a permanet reinforcement, the proposed test system permits further optimisation of anchor and mesh devices to improve the success of the surgical treatment
7th International Conference on Reliability of Materials and Structures (RELMAS 2008). June 17 - 20, 2008 ; Saint Petersburg, Russia. pp 354-358. Reprint with corrections in red Introduction Analysis of advanced structures working under extreme heavy loading such as nuclear power plants and piping system should take into account the randomness of loading, geometrical and material parameters. The existing reliability are restricted mostly to the elastic working regime, e.g. allowable local stresses. Development of the limit and shakedown reliability-based analysis and design methods, exploiting potential of the shakedown working regime, is highly needed. In this paper the application of a new algorithm of probabilistic limit and shakedown analysis for shell structures is presented, in which the loading and strength of the material as well as the thickness of the shell are considered as random variables. The reliability analysis problems may be efficiently solved by using a system combining the available FE codes, a deterministic limit and shakedown analysis, and the First and Second Order Reliability Methods (FORM/SORM). Non-linear sensitivity analyses are obtained directly from the solution of the deterministic problem without extra computational costs.
Load bearing capacity of thin shell structures made of elastoplastic material by direct methods
(2008)
When confining pressure is low or absent, extensional fractures are typical, with fractures occurring on unloaded planes in rock. These “paradox” fractures can be explained by a phenomenological extension strain failure criterion. In the past, a simple empirical criterion for fracture initiation in brittle rock has been developed. But this criterion makes unrealistic strength predictions in biaxial compression and tension. A new extension strain criterion overcomes this limitation by adding a weighted principal shear component. The weight is chosen, such that the enriched extension strain criterion represents the same failure surface as the Mohr–Coulomb (MC) criterion. Thus, the MC criterion has been derived as an extension strain criterion predicting failure modes, which are unexpected in the understanding of the failure of cohesive-frictional materials. In progressive damage of rock, the most likely fracture direction is orthogonal to the maximum extension strain. The enriched extension strain criterion is proposed as a threshold surface for crack initiation CI and crack damage CD and as a failure surface at peak P. Examples show that the enriched extension strain criterion predicts much lower volumes of damaged rock mass compared to the simple extension strain criterion.
System und Verfahren zur Durchführung von Messungen biaxialer und kreuzförmiger Zugversuche, wobei ein Weg oder eine Kraft auf eine Materialprobe über mindestens zwei Nadelarme mit Nadeln geleitet wird, die in einem Gehäuse gelagert sind, wobei die Arme und/oder Nadelarme für eine ungehinderte Querkontraktion bei gleichmäßiger Lasteinleitung um eine Achse drehbar gelagert und seitlich auslenkbar sind.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der klassischen Plastizitätstheorie, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Eine FEM-basierte Traglast- und Einspielanalyse für ideal plastisches Material wurde auf ein kinematisch verfestigendes Materialgesetz erweitert und in das Finite Element Programm PERMAS implementiert. In einem einfachen Zug-Torsionsexperiment wurde eine Hohlprobe mit konstanter Torsion und zyklischer Zugbelastung beansprucht, um die neue Implementierung zu verifizieren. Es konnte gezeigt werden, dass die Einspielanalyse gut mit den experimentellen Ergebnissen übereinstimmt. Bei Verfestigung lassen sich wesentlich größere Sicherheiten nachweisen. Dieses Potential bedarf weiterer experimenteller Absicherung. Parallel dazu ist die Eisnpieltheorie auf fortschrittliche Verfestigungsansätze zu erweitern.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist ähnlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA entwickelten Zuverlässigkeitsanalysen sind nichlinear erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar. Auf die vorgesehenen Erweiterungen der Werkstoffmodellierung für nichtlineare Verfestigung und für Schädigung konnte hier nicht eingegangen werden. Es herrscht ein deutlicher Mangel an Experimenten zum Nachweis der Grenzen zwischen elastischem Einspielen und dem Versagen durch LCF oder durch Ratchetting.
Genaue Kenntnis der Spannungen und Verformungen in passiven Komponenten gewinnt man mit detailierten inelastischen FEM Analysen. Die lokale Beanspruchung läßt sich aber nicht direkt mit einer Beanspruchbarkeit im strukturmechanischen Sinne vergleichen. Konzentriert man sich auf die Frage nach der Tragfähigkeit, dann vereinfacht sich die Analyse. Im Rahmen der Plastizitätstheorie berechnen Traglast- und Einspielanalyse die tragbaren Lasten direkt und exakt. In diesem Beitrag wird eine Implementierung der Traglast- und Einspielsätze in ein allgemeines FEM Programm vorgestellt, mit der die Tragfähigkeit passiver Komponenten direkt berechnet wird. Die benutzten Konzepte werden in Bezug auf die übliche Strukturanalyse erläutert. Beispiele mit lokal hoher Beanspruchung verdeutlichen die Anwendung der FEM basierten Traglast- und Einspielanalysen. Die berechneten Interaktionsdiagramme geben einen guten Überblick über die möglichen Betriebsbereiche passiver Komponenten. Die Traglastanalyse bietet auch einen strukturmechanischen Zugang zur Kollapslast rißbehafteter Komponenten aus hochzähem Material.
Limit and shakedown theorems are exact theories of classical plasticity for the direct computation of safety factors or of the load carrying capacity under constant and varying loads. Simple versions of limit and shakedown analysis are the basis of all design codes for pressure vessels and pipings. Using Finite Element Methods more realistic modeling can be used for a more rational design. The methods can be extended to yield optimum plastic design. In this paper we present a first implementation in FE of limit and shakedown analyses for perfectly plastic material. Limit and shakedown analyses are done of a pipe–junction and a interaction diagram is calculated. The results are in good correspondence with the analytic solution we give in the appendix.
Safety and reliability of structures may be assessed indirectly by stress distributions. Limit and shakedown theorems are simplified but exact methods of plasticity that provide safety factors directly in the loading space. These theorems may be used for a direct definition of the limit state function for failure by plastic collapse or by inadaptation. In a FEM formulation the limit state function is obtained from a nonlinear optimization problem. This direct approach reduces considerably the necessary knowledge of uncertain technological input data, the computing time, and the numerical error. Moreover, the direct way leads to highly effective and precise reliability analyses. The theorems are implemented into a general purpose FEM program in a way capable of large-scale analysis.
Structural design analyses are conducted with the aim of verifying the exclusion of ratcheting. To this end it is important to make a clear distinction between the shakedown range and the ratcheting range. In cyclic plasticity more sophisticated hardening models have been suggested in order to model the strain evolution observed in ratcheting experiments. The hardening models used in shakedown analysis are comparatively simple. It is shown that shakedown analysis can make quite stable predictions of admissible load ranges despite the simplicity of the underlying hardening models. A linear and a nonlinear kinematic hardening model of two-surface plasticity are compared in material shakedown analysis. Both give identical or similar shakedown ranges. Structural shakedown analyses show that the loading may have a more pronounced effect than the hardening model.
Numerical methods for limit and shakedown analysis. Deterministic and probabilistic problems.
(2003)
Limit Analysis of Defects
(2000)
LISA, ein europäisches Projekt zur direkten Berechnung der Tragfähigkeit duktiler Strukturen.
(1998)
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. Die Autoren möchten der Europäischen Kommission an dieser Stelle für die Förderung ausdrücklich danken. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist änhlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA geplante Zuverlässigkeitsanalyse ist erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar.