Refine
Year of publication
- 2016 (284) (remove)
Institute
- Fachbereich Medizintechnik und Technomathematik (54)
- Fachbereich Chemie und Biotechnologie (44)
- Fachbereich Bauingenieurwesen (35)
- Fachbereich Elektrotechnik und Informationstechnik (35)
- IfB - Institut für Bioengineering (35)
- Fachbereich Wirtschaftswissenschaften (31)
- Fachbereich Luft- und Raumfahrttechnik (28)
- Fachbereich Maschinenbau und Mechatronik (26)
- Fachbereich Energietechnik (17)
- INB - Institut für Nano- und Biotechnologien (15)
Document Type
- Article (118)
- Conference Proceeding (81)
- Part of a Book (29)
- Book (25)
- Other (10)
- Conference: Meeting Abstract (8)
- Report (6)
- Doctoral Thesis (3)
- Part of a Periodical (2)
- Patent (1)
Keywords
- Technical Operations Research (2)
- Additive Manufacturing (1)
- Annulus Fibrosus (1)
- Archeology (1)
- Assessment (1)
- Asymptotic efficiency (1)
- Bacillus atrophaeus (1)
- Balance (1)
- Balanced hypergraph (1)
- Brandfall (1)
- Building Culture (1)
- Building Systems (1)
- Business Simulations (1)
- Cardiac myocytes (1)
- Cardiac tissue (1)
- Cartography (1)
- CellDrum (1)
- Censored data (1)
- Co-managed care (1)
- Collaborative robot (1)
- Computational biomechanics (1)
- Controller Parameter (1)
- DNA biosensor (1)
- Designpraxis (1)
- Disc Degeneration (1)
- Diversity (1)
- Drinking Water Supply (1)
- Drug simulation (1)
- Duality (1)
- EN 1993-1-2 (1)
- Effizienz (1)
- Einbetten in das Internet der Dinge (1)
- Elderly (1)
- Electromechanical modeling (1)
- Engineering Education (1)
- Eutectic Silver Copper alloy (1)
- External knee adduction moments (1)
- Fall prevention (1)
- Field effect (1)
- Forschung, pränormativ (1)
- Frequency adaption (1)
- Gamification (1)
- Gender (1)
- Ground-level falls (1)
- Hall’s Theorem (1)
- Heart tissue culture (1)
- Higher Education (1)
- Hodgkin–Huxley models (1)
- Homogenization (1)
- Human-Robot interaction (1)
- Hypergraph (1)
- Hypothesentests (1)
- Induced pluripotent stem cells (1)
- Infrastructures (1)
- Inotropic compounds (1)
- Intervertebral Disc (1)
- Intradiscal Pressure (1)
- Inverse dynamic problem (1)
- Inverse kinematic problem (1)
- Ion channels (1)
- Koenig’s Theorem (1)
- LAPS (1)
- Label-free detection (1)
- Land Survey and Measurement Systems (1)
- Layer-by-layer adsorption (1)
- Level Control System (1)
- Manipulated variables (1)
- Matching (1)
- Minimal-Ansatz für Embedded-Systeme (1)
- Mixed Integer Programming (1)
- Mixed-Integer Nonlinear Optimisation (1)
- Mobility (1)
- Mobility tests (1)
- Musculoskeletal model (1)
- Nucleus Pulposus (1)
- Optimal Closed Loop (1)
- Optimal Topology (1)
- Optimization (1)
- Parametric Design (1)
- Parametric Modelling (1)
- Path planning (1)
- Pharmacology (1)
- Poly(allylamine hydrochloride) (1)
- Porositat (1)
- Product-integration (1)
- Reference Process Model (1)
- Referenzmodellierung (1)
- Response Surface Method (1)
- SLM (1)
- Safety concept (1)
- Semi-parametric random censorship model (1)
- Serious Games (1)
- Solver Per- formance (1)
- Structuralist Architecture (1)
- Subject-oriented Business Process Management (1)
- Survival analysis (1)
- System Design (1)
- System Design Problem (1)
- TM Forum (1)
- TTIP (1)
- Technical Operation Research (1)
- Telecommunications Industry. (1)
- Tinetti test (1)
- Tragwerksbemessung (1)
- Unternehmensarchitektur (1)
- Unternehmenstransformation (1)
- Vergleich von Experimenten (1)
- Vertex cover (1)
- Volterra integral equation (1)
- Workspace monitoring (1)
- biosensors (1)
- building industry (1)
- chemical sensor (1)
- diversity (1)
- eTOM (1)
- efficiency (1)
- electronic communications markets (1)
- endospores (1)
- energy disspation (1)
- engineering education (1)
- enhanced Telecom Operations Map (eTOM) (1)
- friction (1)
- hiPS cardiomyocytes (1)
- immobilization (1)
- impulsive effects (1)
- industrial research (1)
- ingot (1)
- innovation (1)
- iron and steel industry (1)
- liberalisation (1)
- light-addressable potentiometric sensor (1)
- liquid-storage tank (1)
- liquid-structure interaction (1)
- materials technology (1)
- metal structure (1)
- organosilanes (1)
- plug-based microfluidic device (1)
- regulation (1)
- research project (1)
- research report (1)
- resistance of materials (1)
- seismic response (1)
- silanization (1)
- social responsible engineering (1)
- steel (1)
- structural design (1)
- structure-soil-structure interaction (1)
- testing hypotheses (1)
- wave run-up (1)
We prove characterizations of the existence of perfect ƒ-matchings in uniform mengerian and perfect hypergraphs. Moreover, we investigate the ƒ-factor problem in balanced hypergraphs. For uniform balanced hypergraphs we prove two existence theorems with purely combinatorial arguments, whereas for non-uniform balanced hypergraphs we show that the ƒ-factor problem is NP-hard.
Mit steigenden Dämmstandards und höheren Komfortanforderungen der Nutzer gerät die Problematik der sommerlichen Überhitzung zunehmend in den Fokus. Um die Überhitzung möglichst gering zu halten, sind Maßnahmen und Lösungen zu entwickeln, die den potenziellen Kühlbedarf eines Gebäudes vermeiden sowie reduzieren. Im Rahmen des europäischen Forschungsprojektes BATIMASS wurden Techniken untersucht, die die sommerliche Raumtemperatur ohne zusätzliche Kühlung (passiv) oder aber mit energieeffizienter wasserbasierter Flächenkühlung (aktiv) reduzieren und die besonders für Gebäude in Stahl(leicht)bauweise geeignet sind. Dafür wurde die Methodik der thermisch äquivalenten Decke weiterentwickelt, um das thermische Verhalten von Profilblechdecken in Gebäuden für beide Lösungsansätze analysieren zu können. Darüber hinaus wurde der Einsatz von Phasenwechselmaterial (PCM) zur Steigerung der Speicherfähigkeit von leichten Decken mit besonders geringer thermischer Masse in Simulationen sowie im Labor untersucht und bewertet.
Low-end-Embedded-Plattformen stellen eine hohe Anforderung an die Entscheidungsfähigkeit des Entwicklers: Zum nächstgrößeren Prozessor greifen und ein Betriebssystem benutzen oder doch besser auf das Betriebssystem verzichten? Die Frage lässt sich einfach beantworten: Einen Nanokernel verwenden und das Embedded-System mit einem minimalen Footprint realisieren. Adam Dunkels Protothreads sind eine ausgesprochen effiziente Art, Mikrocontroller gut strukturiert zu programmieren und gleichzeitig auf Overhead zu verzichten. So können auch mit kleinen 8-bit-Prozessoren anspruchsvolle Aufgaben in einem Thread-Modell bearbeitet werden. Man muss also nicht immer das Rad neu erfinden oder gleich auf Linux-basierte Systeme zurückgreifen.
Optimization of the immobilization of bacterial spores on glass substrates with organosilanes
(2016)
Spores can be immobilized on biosensors to function as sensitive recognition elements. However, the immobilization can affect the sensitivity and reproducibility of the sensor signal. In this work, three different immobilization strategies with organosilanes were optimized and characterized to immobilize Bacillus atrophaeus spores on glass substrates. Five different silanization parameters were investigated: nature of the solvent, concentration of the silane, silanization time, curing process, and silanization temperature. The resulting silane layers were resistant to a buffer solution (e.g., Ringer solution) with a polysorbate (e.g., Tween®80) and sonication.
Das Forschungsvorhaben Optiox beschäftigt sich mit der Optimierung eines Belüftungsbeckens zur Rauchgasentschwefelung fossil befeuerter Kraftwerke mittels Seewasser. Unter Neutralisierung der entstehenden Hydroniumionen (H3O+) durch die natürliche Alkalität des Seewassers dissoziiert Schwefeldioxid aus dem Rauchgase im vorgeschalteten Absorber beim Phasenübergang von der Gas- in die Flüssigphase zu Sulfiten. Im Belüftungsbecken werden diese Sulfite mittels eingeblasener Luft zu Sulfaten oxidiert, was zu einer geringen Erhöhung der Sulfatfracht vor Einleitung ins Meer führt, die unterhalb der natürlichen Schwankungen liegt. Daneben dient das Belüftungsbecken der Konditionierung des Seewassers hinsichtlich pH-Wert und Sauerstoffgehalt und ist mit hoch effizienten Belüftern ausgestattet, deren Spezifikation den jeweiligen Randbedingungen, wie Abscheideleistung des Absorbers, Beckengeometrie sowie lokalen Gegebenheiten angepasst wird.
Optical flow estimation is known from Computer Vision where it is used to determine obstacle movements through a sequence of images following an assumption of brightness conservation. This paper presents the first study on application of the optical flow method to aerated stepped spillway flows. For this purpose, the flow is captured with a high-speed camera and illuminated with a synchronized LED light source. The flow velocities, obtained using a basic Horn–Schunck method for estimation of the optical flow coupled with an image pyramid multi-resolution approach for image filtering, compare well with data from intrusive conductivity probe measurements. Application of the Horn–Schunck method yields densely populated flow field data sets with velocity information for every pixel. It is found that the image pyramid approach has the most significant effect on the accuracy compared to other image processing techniques. However, the final results show some dependency on the pixel intensity distribution, with better accuracy found for grey values between 100 and 150.
Operational Modal Analysis (OMA) is a promising candidate for flutter testing and Structural Health Monitoring (SHM) of aircraft wings that are passively excited by wind loads. However, no studies have been published where OMA is tested in transonic flows, which is the dominant condition for large civil aircraft and is characterized by complex and unique aerodynamic phenomena. We use data from the HIRENASD large-scale wind tunnel experiment to automatically extract modal parameters from an ambiently excited wing operated in the transonic regime using two OMA methods: Stochastic Subspace Identification (SSI) and Frequency Domain Decomposition (FDD). The system response is evaluated based on accelerometer measurements. The excitation is investigated from surface pressure measurements. The forcing function is shown to be non-white, non-stationary and contaminated by narrow-banded transonic disturbances. All these properties violate fundamental OMA assumptions about the forcing function. Despite this, all physical modes in the investigated frequency range were successfully identified, and in addition transonic pressure waves were identified as physical modes as well. The SSI method showed superior identification capabilities for the investigated case. The investigation shows that complex transonic flows can interfere with OMA. This can make existing approaches for modal tracking unsuitable for their application to aircraft wings operated in the transonic flight regime. Approaches to separate the true physical modes from the transonic disturbances are discussed.
This paper describes the procedure on the evaluation of the masonry chapter for the next generation of Eurocode 8, the European Standard for earthquake-resistant design. In CEN, TC 250/SC8, working group WG 1 has been established to support the subcommittee on the topic of masonry on both design of new structures (EN1998-1) and assessment of existing structures (EN1998-3). The aim is to elaborate suggestions for amendments which fit the current state of the art in masonry and earthquake-resistant design. Focus will be on modelling, simplified methods, linear-analysis (q-values, overstrength-values), nonlinear procedures, out-of-plane design as well as on clearer definition of limit states. Beside these, topics related to general material properties, reinforced masonry, confined masonry, mixed structures and non-structural infills will be covered too. This paper presents the preliminary work and results up to the submission date.
Enzymatic hydrolysis of lignocellulosic material plays an important role in the classical biorefinery approach. Apart from the pretreatment of the raw material, hydrolysis is the basis for the conversion of the cellulose and hemicellulose fraction into fermentable sugars. After hydrolysis, usually a solid-liquid separation takes place, in order to separate the residual plant material from the sugar-rich fraction, which can be subsequently used in a fermentation step. In order to factor out the separation step, the usage of in alginate immobilized crude cellulose fiber beads (CFBs) were evaluated. Pretreated cellulose fibers are incorporated in an alginate matrix together with the relevant enzymes. In doing so, sugars diffuse trough the alginate matrix, allowing a simplified delivery into the surrounding fluid. This again reduces product inhibition of the glucose on the enzyme catalysts. By means of standardized bead production the hydrolysis in lab scale was possible. First results show that liberation of glucose and xylose is possible, allowing a maximum total sugar yield of 75 %.
The Saturnian moon Enceladus with its extensive water bodies underneath a thick ice sheet cover is a potential candidate for extraterrestrial life. Direct exploration of such extraterrestrial aquatic ecosystems requires advanced access and sampling technologies with a high level of autonomy. A new technological approach has been developed as part of the collaborative research project Enceladus Explorer (EnEx). The concept is based upon a minimally invasive melting probe called the IceMole. The force-regulated, heater-controlled IceMole is able to travel along a curved trajectory as well as upwards. Hence, it allows maneuvers which may be necessary for obstacle avoidance or target selection. Maneuverability, however, necessitates a sophisticated on-board navigation system capable of autonomous operations. The development of such a navigational system has been the focal part of the EnEx project. The original IceMole has been further developed to include relative positioning based on in-ice attitude determination, acoustic positioning, ultrasonic obstacle and target detection integrated through a high-level sensor fusion. This paper describes the EnEx technology and discusses implications for an actual extraterrestrial mission concept.
We present an effective and simple multiscale method for equilibrating Kremer Grest model polymer melts of varying stiffness. In our approach, we progressively equilibrate the melt structure above the tube scale, inside the tube and finally at the monomeric scale. We make use of models designed to be computationally effective at each scale. Density fluctuations in the melt structure above the tube scale are minimized through a Monte Carlo simulated annealing of a lattice polymer model. Subsequently the melt structure below the tube scale is equilibrated via the Rouse dynamics of a force-capped Kremer-Grest model that allows chains to partially interpenetrate. Finally the Kremer-Grest force field is introduced to freeze the topological state and enforce correct monomer packing. We generate 15 melts of 500 chains of 10.000 beads for varying chain stiffness as well as a number of melts with 1.000 chains of 15.000 monomers. To validate the equilibration process we study the time evolution of bulk, collective, and single-chain observables at the monomeric, mesoscopic, and macroscopic length scales. Extension of the present method to longer, branched, or polydisperse chains, and/or larger system sizes is straightforward.
Hintergrund
Die Anwendung und das Verständnis von Statistik sind sehr wichtig für die biomedizinische Forschung und für die klinische Praxis. Dies gilt insbesondere auch zur Abschätzung der Möglichkeiten unterschiedlichster Diagnostik- und Therapieoptionen beim Glaukom. Die scheinbare Komplexität der Statistik, die zum Teil dem „gesunden Menschenverstand“ zu widersprechen scheint, zusammen mit der nur vorsichtigen Akzeptanz der Statistik bei vielen Medizinern können zu bewussten und unbewussten Manipulationen bei der Datendarstellung und -interpretation führen.
Ziel der Arbeit
Ziel ist die verständliche Darstellung einiger typischer Fehler in der medizinisch-statistischen Datenbehandlung.
Material und Methoden
Anhand hypothetischer Beispiele aus der Glaukomdiagnostik erfolgen die Darstellung der Wirkung eines hypotensiven Medikamentes sowie die Beurteilung der Ergebnisse eines diagnostischen Tests. Es werden die typischsten statistischen Einsatzbereiche und Irrtumsquellen ausführlich und verständlich analysiert
Ergebnisse
Mechanismen von Datenmanipulation und falscher Dateninterpretation werden aufgeklärt. Typische Irrtumsquellen bei der statistischen Auswertung und Datendarstellung werden dabei erläutert.
Schlussfolgerungen
Die erläuterten praktischen Beispiele zeigen die Notwendigkeit, die Grundlagen der Statistik zu verstehen und korrekt anwenden zu können. Fehlendes Grundlagenwissen und Halbwissen der medizinischen Statistik können zu folgenschweren Missverständnissen und falschen Entscheidungen in der medizinischen Forschung, aber auch in der klinischen Praxis führen.
Für die Verarbeitung von natürlicher Sprache ist ein wichtiger Zwischenschritt das Parsing, bei dem für Sätze der natürlichen Sprache Ableitungsbäume bestimmt werden. Dieses Verfahren ist vergleichbar zum Parsen formaler Sprachen, wie z. B. das Parsen eines Quelltextes. Die Parsing-Methoden der formalen Sprachen, z. B. Bottom-up-Parser, können nicht auf das Parsen der natürlichen Sprache übertragen werden, da keine Formalisierung der natürlichen Sprachen existiert [3, 12, 23, 30].
In den ersten Programmen, die natürliche Sprache verarbeiten [32, 41], wurde versucht die natürliche Sprache mit festen Regelmengen zu verarbeiten. Dieser Ansatz stieß jedoch schnell an seine Grenzen, da die Regelmenge nicht vollständig sowie nicht minimal ist und wegen der benötigten Menge an Regeln schwer zu verwalten ist. Die Korpuslinguistik [22] bot die Möglichkeit, die Regelmenge durch Supervised-Machine-Learning-Verfahren [2] abzulösen.
Teil der Korpuslinguistik ist es, große Textkorpora zu erstellen und diese mit sprachlichen Strukturen zu annotieren. Zu diesen Strukturen gehören sowohl die Wortarten als auch die Ableitungsbäume der Sätze. Vorteil dieser Methodik ist es, dass repräsentative Daten zur Verfügung stehen. Diese Daten werden genutzt, um mit Supervised-Machine-Learning-Verfahren die Gesetzmäßigkeiten der natürliche Sprachen zu erlernen.
Das Maximum-Entropie-Verfahren ist ein Supervised-Machine-Learning-Verfahren, das genutzt wird, um natürliche Sprache zu erlernen. Ratnaparkhi [25] nutzt Maximum-Entropie, um Ableitungsbäume für Sätze der natürlichen Sprache zu erlernen. Dieses Verfahren macht es möglich, die natürliche Sprache (abgebildet als Σ∗) trotz einer fehlenden formalen Grammatik zu parsen.