Refine
Year of publication
Institute
- Fachbereich Medizintechnik und Technomathematik (1928)
- Fachbereich Elektrotechnik und Informationstechnik (1150)
- Fachbereich Wirtschaftswissenschaften (1119)
- Fachbereich Energietechnik (1066)
- Fachbereich Chemie und Biotechnologie (892)
- Fachbereich Maschinenbau und Mechatronik (801)
- Fachbereich Luft- und Raumfahrttechnik (769)
- Fachbereich Bauingenieurwesen (664)
- IfB - Institut für Bioengineering (627)
- INB - Institut für Nano- und Biotechnologien (585)
Has Fulltext
- no (9284) (remove)
Language
Document Type
- Article (5518)
- Conference Proceeding (1413)
- Book (1057)
- Part of a Book (555)
- Patent (174)
- Bachelor Thesis (169)
- Report (82)
- Doctoral Thesis (79)
- Conference: Meeting Abstract (75)
- Other (67)
Keywords
- Illustration (10)
- Nachhaltigkeit (10)
- Corporate Design (9)
- Erscheinungsbild (8)
- Gamification (8)
- Redesign (7)
- Animation (6)
- Datenschutz (6)
- Deutschland (6)
- Digitalisierung (6)
Ausblick: Der individualitätsbezogene Diversity Management-Ansatz als Antwort auf Individualisierung
(2015)
Der Megatrend Individualisierung fordert von Unternehmen, ihre Strategien und Prozessabläufe bei zunehmender Globalisierung grundlegend zu überdenken. Während Strategien und Prozessabläufe im Unternehmen Standards unterliegen, entwickelt sich unsere Gesellschaft immer stärker zu einem individuumszentrierten System, in dem es gilt, Werte und Lebensstile der Individuen zu berücksichtigen und derart wertzuschätzen, dass Mitarbeitende motiviert und mit hoher Bindung an das Unternehmen die anstehenden Leistungen für das Unternehmen erbringen. Im Konzept DiM sind Standardisierung und Individualisierung keine gegensätzlichen Aspekte, da bei DiM neben der Betrachtung des betriebswirtschaftlichen Nutzens dieses Konzepts für Unternehmen die Wertschätzung des Individuums als genuines Merkmal betont wird.
Stahlbetonrahmentragwerke mit Ausfachungen aus Mauerwerk weisen nach Erdbeben häufig schwere Schäden auf. Gründe hierfür sind die Beanspruchungen der Ausfachungswände durch die aufgezwungenen Rahmenverformungen in Wandebene und die gleichzeitig auftretenden Trägheitskräfte senkrecht zur Wandebene in Kombination mit der konstruktiven Ausführung des Ausfachungsmauerwerks. Die Ausfachung wird in der Regel knirsch gegen die Rahmenstützen gemauert, wobei der Verschluss der oberen Fuge mit Mörtel oder Montageschaum erfolgt. Dadurch kommt es im Erdbebenfall zu lokalen Interaktionen zwischen Ausfachung und Rahmen, die in der Folge zu einem Versagen einzelner Ausfachungswände oder zu einem sukzessiven Versagen des Gesamtgebäudes führen können. Die beobachteten Schäden waren die Motivation dafür, in dem europäischen Forschungsprojekt INSYSME für Stahlbetonrahmentragwerke mit Ausfachungen aus hochwärmedämmenden Ziegelmauerwerk innovative Lösungen zur Verbesserung des seismischen Verhaltens zu entwickeln. Der vorliegende Beitrag stellt die im Rahmen des Projekts von den deutschen Projektpartnern (Universität Kassel, SDA-engineering GmbH) entwickelten Lösungen vor und vergleicht deren seismisches Verhalten mit der traditionellen Ausführung der Ausfachungswände. Grundlage für den Vergleich sind statisch-zyklische Wandversuche und Simulationen auf Wandebene. Aus den Ergebnissen werden Empfehlungen für die erdbebensichere Auslegung von Stahlbetonrahmentragwerken mit Ausfachungen aus Ziegelmauerwerk abgeleitet.
Auslegung der CFK-Sandwich-Rumpfstruktur eines Hubschraubers mit der Methode der Finiten Elemente
(1994)
Im Rahmen des europäischen Verbundprojekts INSYSME wurden von den deutschen Partnern die Systeme IMES und INODIS zur Verbesserung des seismischen Verhaltens von ausgefachten Stahlbetonrahmen entwickelt. Ziel beider Systeme ist es, Stahlbetonrahmen und Ausfachung zu entkoppeln, anstatt die Tragfähigkeit durch aufwendige und kostspielige zusätzliche Bewehrungseinlagen zu erhöhen. Erste Ergebnisse des Systems IMES für Belastungen in und senkrecht zu der Wandebene werden vorgestellt.
Im Rahmen des europäischen Verbundprojekts INSYSME wurden von den deutschen Partnern die Systeme IMES und INODIS zur Verbesserung des seismischen Verhaltens von ausgefachten Stahlbetonrahmen entwickelt. Ziel beider Systeme ist es, Stahlbetonrahmen und Ausfachung zu entkoppeln, anstatt die Tragfähigkeit durch aufwendige und kostspielige zusätzliche Bewehrungseinlagen zu erhöhen. Erste Ergebnisse des Systems IMES für Belastungen in und senkrecht zu der Wandebene werden vorgestellt.
Thematisch widmet sich das Projekt Coolplan- AIR der Fortentwicklung und Feldvalidierung eines Berechnungs- und Auslegungstools zur energieeffizienten Kühlung von Gebäuden mit luftgestützten Systemen. Neben dem Aufbau und der Weiterentwicklung von Simulationsmodellen erfolgen Vermessungen der Gesamtsysteme anhand von Praxisanlagen im Feld. Der Schwerpunkt des Projekts liegt auf der Vermessung, Simulation und Integration rein luftgestützter Kühltechnologien. Im Bereich der Kälteerzeugung wurden Luft‐ Luft‐ Wärmepumpen, Anlagen zur adiabaten Kühlung bzw. offene Kühltürme und VRF‐ Multisplit‐ Systeme (Variable Refrigerant Flow) im Feld bzw. auf dem Teststand der HSD vermessen. Die Komponentenmodelle werden in die Matlab/Simulink‐ Toolbox CARNOT integriert und anschließend auf Basis der zuvor erhaltenen Messdaten validiert.
Einerseits erlauben die Messungen das Betriebsverhalten von Anlagenkomponenten zu analysieren. Andererseits soll mit der Vermessung im Feld geprüft werden, inwieweit die Simulationsmodelle, welche im Vorgängerprojekt aus Prüfstandmessungen entwickelt wurden, auch für größere Geräteleistungen Gültigkeit besitzen. Die entwickelten und implementierten Systeme, bestehend aus verschiedensten Anlagenmodellen und Regelungskomponenten, werden geprüft und dahingehend qualifiziert, dass sie in Standard- Auslegungstools zuverlässig verwendet werden können.
Zusätzlich wird ein energetisches Monitoring eines Hörsaalgebäudes am Campus Jülich durchgeführt, das u. a. zur Validierung der Kühllastberechnungen in gängigen Simulationsmodelle genutzt werden kann.
Auswahl der Herniennetze nach der “effektiven Porosität” - warum das Gewicht weniger wichtig ist
(2012)
Die Auswahl der passenden Geschäftsprozesse für eine Automatisierung mittels Robotic Process Automation (RPA) ist für den Erfolg von RPA-Projekten entscheidend. Das vorliegende Kapitel liefert dafür Selektionskriterien, die aus einer qualitativen Studie mit elf interviewten RPA-Experten aus dem Versicherungsumfeld resultieren. Das Ergebnis umfasst eine gewichtete Liste von sieben Dimensionen und 51 Prozesskriterien, welche die Automatisierung mit Softwarerobotern begünstigen beziehungsweise deren Nichterfüllung eine Umsetzung erschweren oder sogar verhindern. Die drei wichtigsten Kriterien zur Auswahl von Geschäftsprozessen für die Automatisierung mittels RPA umfassen die Entlastung der an dem Prozess mitwirkenden Mitarbeiter (Arbeitnehmerentlastung), die Ausführbarkeit des Prozesses mittels Regeln (Regelbasierte Prozessteuerung) sowie ein positiver Kosten-Nutzen-Vergleich. Auf diesen Ergebnissen aufbauend wird ein Vergleich mit den bereits bekannten Selektionskriterien aus der Literatur erstellt und diskutiert. Praktiker können die Ergebnisse verwenden, um eine systematische Auswahl von RPA-relevanten Prozessen vorzunehmen. Aus wissenschaftlicher Perspektive stellen die Ergebnisse eine Grundlage zur Erklärung des Erfolgs und Misserfolgs von RPA-Projekten dar.
Nach der Bundestagswahl am 27. September 2009 steht der Atomausstieg in Deutschland wieder ganz oben auf der politischen Agenda. Eine aktuelle Bestandsaufnahme aller ma\geblichen Argumente erscheint somit zwingend notwendig. Dabei sollte der Blickwinkel nicht national beschränkt bleiben, sondern vor allem der Einfluss der europäischen Dimension dieser Thematik miteinbezogen werden. Auf europäischer Ebene zeigt sich eine Position zu Gunsten der Kernenergie. Unter den 27 EU-Staaten findet gerade eine Renaissance der Atomkraft statt. Die drei europäischen Organe befürworten den umfangreichen Einsatz der Kernenergie als langfristigen Bestandteil des Energieträgermix. Deutschland gehört mit seinem Beschluss zum Atomausstieg einer Minderheit an. Als Teil eines immer stärker zusammen wachsenden und letztendlich vollständig integrierten europäischen Strommarktes wird Deutschland langfristig stets mit Atomstrom versorgt werden. Dies gilt losgelöst von dem Einsatz von Kernkraftwerken im Inland. Eine Abschaltung der Anlagen führt damit nicht zur Zielerreichung der Atomkraftgegner, sondern lediglich zu zusätzlichen energietechnischen Herausforderungen bei der Sicherstellung der deutschen Stromversorgung. Der deutsche Atomausstieg sollte aus diesem Grund von der neuen Bundesregierung zurück genommen werden.
Zahlreiche Einflussfaktoren haben in den vergangenen Jahren das Gesicht der Elektrizitätsmärkte stark verändert. Hierzu zählen vor allem die Einführung der ökonomischen Gesetze des Wettbewerbsmarktes durch die Liberalisierung sowie die nun kostenpflichtige Berücksichtigung des bei der Stromerzeugung hervorgerufenen CO2-Ausstoßes durch die Einführung des europäischen Emissionshandelssystems (EUTS). Die Folgen dieses Veränderungsprozesses lassen sich auf Grund der langen Investitionszyklen im Kraftwerksbau bisher nur unvollständig überblicken. Dies ist insbesondere im Hinblick auf die Versorgungssicherheit als Teil des energiewirtschaftlichen Zieldreiecks des § 1 EnWG von großer Bedeutung. Dazu zählt insbesondere, ob die Versorgungssicherheit in Deutschland bei gegenwärtigem Marktdesign auch dauerhaft gewährleistet sein wird. Es stellt sich heraus, dass es im Bereich der Spitzenlastkraftwerke zu Investitionen in gesamtwirtschaftlich zu geringen Umfang kommen kann. Dieses Investitionsdilemma beruht auf einem externen Effekt, der durch die aktuelle Ausgestaltung des deutschen Schadenersatzrechtes entsteht. Hierdurch ist die sichere Stromversorgung in Zeiten hoher Last potenziell gefährdet. Um die Wirkungen des Investitionsdilemmas abzumildern oder ganz zu beseitigen sind verschiedene Investitionsanreize durch entsprechende Ausgestaltung des EUTS denkbar. Diese werden im Einzelnen analysiert.
Auswirkungen des Forderungsverzichtes – Steuerliche Belastung und Beeinflussung der Steuerquote
(2009)
Sleep scoring is a necessary and time-consuming task in sleep studies. In animal models (such as mice) or in humans, automating this tedious process promises to facilitate long-term studies and to promote sleep biology as a data-driven f ield. We introduce a deep neural network model that is able to predict different states of consciousness (Wake, Non-REM, REM) in mice from EEG and EMG recordings with excellent scoring results for out-of-sample data. Predictions are made on epochs of 4 seconds length, and epochs are classified as artifactfree or not. The model architecture draws on recent advances in deep learning and in convolutional neural networks research. In contrast to previous approaches towards automated sleep scoring, our model does not rely on manually defined features of the data but learns predictive features automatically. We expect deep learning models like ours to become widely applied in different fields, automating many repetitive cognitive tasks that were previously difficult to tackle.
Having well-defined control strategies for fuel cells, that can efficiently detect errors and take corrective action is critically important for safety in all applications, and especially so in aviation. The algorithms not only ensure operator safety by monitoring the fuel cell and connected components, but also contribute to extending the health of the fuel cell, its durability and safe operation over its lifetime. While sensors are used to provide peripheral data surrounding the fuel cell, the internal states of the fuel cell cannot be directly measured. To overcome this restriction, Kalman Filter has been implemented as an internal state observer.
Other safety conditions are evaluated using real-time data from every connected sensor and corrective actions automatically take place to ensure safety. The algorithms discussed in this paper have been validated thorough Model-in-the-Loop (MiL) tests as well as practical validation at a dedicated test bench.
Combined with the use of renewable energy sources for
its production, Hydrogen represents a possible alternative gas
turbine fuel for future low emission power generation. Due to
its different physical properties compared to other fuels such
as natural gas, well established gas turbine combustion
systems cannot be directly applied for Dry Low NOx (DLN)
Hydrogen combustion. This makes the development of new
combustion technologies an essential and challenging task
for the future of hydrogen fueled gas turbines.
The newly developed and successfully tested “DLN
Micromix” combustion technology offers a great potential to
burn hydrogen in gas turbines at very low NOx emissions.
Aiming to further develop an existing burner design in terms
of increased energy density, a redesign is required in order to
stabilise the flames at higher mass flows and to maintain low
emission levels.
For this purpose, a systematic design exploration has
been carried out with the support of CFD and optimisation
tools to identify the interactions of geometrical and design
parameters on the combustor performance. Aerodynamic
effects as well as flame and emission formation are observed
and understood time- and cost-efficiently. Correlations
between single geometric values, the pressure drop of the
burner and NOx production have been identified as a result.
This numeric methodology helps to reduce the effort of
manufacturing and testing to few designs for single
validation campaigns, in order to confirm the flame stability
and NOx emissions in a wider operating condition field.
An approach to automatically generate a dynamic energy simulation model in Modelica for a single existing building is presented. It aims at collecting data about the status quo in the preparation of energy retrofits with low effort and costs. The proposed method starts from a polygon model of the outer building envelope obtained from photogrammetrically generated point clouds. The open-source tools TEASER and AixLib are used for data enrichment and model generation. A case study was conducted on a single-family house. The resulting model can accurately reproduce the internal air temperatures during synthetical heating up and cooling down. Modelled and measured whole building heat transfer coefficients (HTC) agree within a 12% range. A sensitivity analysis emphasises the importance of accurate window characterisations and justifies the use of a very simplified interior geometry. Uncertainties arising from the use of archetype U-values are estimated by comparing different typologies, with best- and worst-case estimates showing differences in pre-retrofit heat demand of about ±20% to the average; however, as the assumptions made are permitted by some national standards, the method is already close to practical applicability and opens up a path to quickly estimate possible financial and energy savings after refurbishment.
Wind-induced operational variability is one of the major challenges for structural health monitoring of slender engineering structures like aircraft wings or wind turbine blades. Damage sensitive features often show an even bigger sensitivity to operational variability. In this study a composite cantilever was subjected to multiple mass configurations, velocities and angles of attack in a controlled wind tunnel environment. A small-scale impact damage was introduced to the specimen and the structural response measurements were repeated. The proposed damage detection methodology is based on automated operational modal analysis. A novel baseline preparation procedure is described that reduces the amount of user interaction to the provision of a single consistency threshold. The procedure starts with an indeterminate number of operational modal analysis identifications from a large number of datasets and returns a complete baseline matrix of natural frequencies and damping ratios that is suitable for subsequent anomaly detection. Mahalanobis distance-based anomaly detection is then applied to successfully detect the damage under varying severities of operational variability and with various degrees of knowledge about the present operational conditions. The damage detection capabilities of the proposed methodology were found to be excellent under varying velocities and angles of attack. Damage detection was less successful under joint mass and wind variability but could be significantly improved through the provision of the currently encountered operational conditions.
In collaborative research projects, both researchers and practitioners work together solving business-critical challenges. These projects often deal with ETL processes, in which humans extract information from non-machine-readable documents by hand. AI-based machine learning models can help to solve this problem.
Since machine learning approaches are not deterministic, their quality of output may decrease over time. This fact leads to an overall quality loss of the application which embeds machine learning models. Hence, the software qualities in development and production may differ.
Machine learning models are black boxes. That makes practitioners skeptical and increases the inhibition threshold for early productive use of research prototypes. Continuous monitoring of software quality in production offers an early response capability on quality loss and encourages the use of machine learning approaches. Furthermore, experts have to ensure that they integrate possible new inputs into the model training as quickly as possible.
In this paper, we introduce an architecture pattern with a reference implementation that extends the concept of Metrics Driven Research Collaboration with an automated software quality monitoring in productive use and a possibility to auto-generate new test data coming from processed documents in production.
Through automated monitoring of the software quality and auto-generated test data, this approach ensures that the software quality meets and keeps requested thresholds in productive use, even during further continuous deployment and changing input data.
A concept for the analysis and optimal design of reinforced concrete structures is described. It is based on a nonlinear optimization algorithm and a finite element program for linear and nonlinear analysis of structures. With the aim of minimal cost design a two stage optimization using efficient gradient algorithm is developed. The optimization problems on global (structural) and local (crosssectional) level are formulated. A parallelization concept for solving the two stage optimization problem in minimal time is presented. Examples are included to illustrate the practical use and the effectively of the parallelization in the area of engineering design.