Refine
Year of publication
- 2024 (169)
- 2023 (264)
- 2022 (305)
- 2021 (294)
- 2020 (245)
- 2019 (387)
- 2018 (262)
- 2017 (262)
- 2016 (284)
- 2015 (301)
- 2014 (305)
- 2013 (302)
- 2012 (333)
- 2011 (329)
- 2010 (343)
- 2009 (369)
- 2008 (312)
- 2007 (312)
- 2006 (330)
- 2005 (303)
- 2004 (323)
- 2003 (254)
- 2002 (250)
- 2001 (221)
- 2000 (245)
- 1999 (236)
- 1998 (242)
- 1997 (220)
- 1996 (202)
- 1995 (192)
- 1994 (175)
- 1993 (155)
- 1992 (144)
- 1991 (100)
- 1990 (108)
- 1989 (111)
- 1988 (104)
- 1987 (105)
- 1986 (81)
- 1985 (84)
- 1984 (75)
- 1983 (70)
- 1982 (57)
- 1981 (54)
- 1980 (61)
- 1979 (58)
- 1978 (52)
- 1977 (32)
- 1976 (30)
- 1975 (28)
- 1974 (17)
- 1973 (12)
- 1972 (17)
- 1971 (11)
- 1970 (2)
- 1969 (2)
- 1968 (2)
- 1967 (1)
- 1963 (1)
- 1925 (1)
Institute
- Fachbereich Medizintechnik und Technomathematik (2087)
- Fachbereich Elektrotechnik und Informationstechnik (1190)
- Fachbereich Wirtschaftswissenschaften (1167)
- Fachbereich Energietechnik (1117)
- Fachbereich Chemie und Biotechnologie (920)
- Fachbereich Maschinenbau und Mechatronik (885)
- Fachbereich Luft- und Raumfahrttechnik (801)
- Fachbereich Bauingenieurwesen (712)
- IfB - Institut für Bioengineering (693)
- INB - Institut für Nano- und Biotechnologien (616)
Language
- German (5150)
- English (4961)
- Russian (14)
- Portuguese (6)
- Italian (5)
- Multiple languages (5)
- Spanish (3)
- Dutch (2)
Document Type
- Article (5641)
- Conference Proceeding (1683)
- Book (1087)
- Part of a Book (578)
- Bachelor Thesis (332)
- Patent (177)
- Report (102)
- Conference: Meeting Abstract (83)
- Doctoral Thesis (82)
- Administrative publication (77)
Keywords
- Amtliche Mitteilung (72)
- Bachelor (34)
- Aachen University of Applied Sciences (31)
- Master (31)
- Prüfungsordnung (31)
- Bauingenieurwesen (30)
- Lesbare Fassung (28)
- Biosensor (25)
- Fachhochschule Aachen (23)
- Illustration (23)
Zugriffsart
- campus (2155)
- weltweit (1913)
- bezahl (790)
- fachbereichsweit (FB4) (38)
Non-intrusive measuring techniques have attained a lot of interest in relation to both hydraulic modeling and prototype applications. Complimenting acoustic techniques, significant progress has been made for the development of new optical methods. Computer vision techniques can help to extract new information, e. g. high-resolution velocity and depth data, from videos captured with relatively inexpensive, consumer-grade cameras. Depth cameras are sensors providing information on the distance between the camera and observed features. Currently, sensors with different working principles are available. Stereoscopic systems reference physical image features (passive system) from two perspectives; in order to enhance the number of features and improve the results, a sensor may also estimate the disparity from a detected light to its original projection (active stereo system). In the current study, the RGB-D camera Intel RealSense D435, working on such stereo vision principle, is used in different, typical hydraulic modeling applications. All tests have been conducted at the Utah Water Research Laboratory. This paper will demonstrate the performance and limitations of the RGB-D sensor, installed as a single camera and as camera arrays, applied to 1) detect the free surface for highly turbulent, aerated hydraulic jumps, for free-falling jets and for an energy dissipation basin downstream of a labyrinth weir and 2) to monitor local scours upstream and downstream of a Piano Key Weir. It is intended to share the authors’ experiences with respect to camera settings, calibration, lightning conditions and other requirements in order to promote this useful, easily accessible device. Results will be compared to data from classical instrumentation and the literature. It will be shown that even in difficult application, e. g. the detection of a highly turbulent, fluctuating free-surface, the RGB-D sensor may yield similar accuracy as classical, intrusive probes.
In Europe, efforts are underway to develop key technologies that can be used to explore the Moon and to exploit the resources available. This includes technologies for in-situ resource utilization (ISRU), facilitating the possibility of a future Moon Village. The Moon is the next step for humans and robots to exploit the use of available resources for longer term missions, but also for further exploration of the solar system. A challenge for effective exploration missions is to achieve a compact and lightweight robot to reduce launch costs and open up the possibility of secondary payload options. Current micro rover concepts are primarily designed to last for one day of solar illumination and show a low level of autonomy. Extending the lifetime of the system by enabling survival of the lunar night and implementing a high level of autonomy will significantly increase potential mission applications and the operational range. As a reference mission, the deployment of a micro rover in the equatorial region of the Moon is being considered. An overview of mission parameters and a detailed example mission sequence is given in this paper. The mission parameters are based on an in-depth study of current space agency roadmaps, scientific goals, and upcoming flight opportunities. Furthermore, concepts of the ongoing international micro rover developments are analyzed along with technology solutions identified for survival of lunar nights and a high system autonomy. The results provide a basis of a concise requirements set-up to allow dedicated system developments and qualification measures in the future.
Research on robotic lunar exploration has seen a broad revival, especially since the Google Lunar X-Prize increasingly brought private endeavors into play. This development is supported by national agencies with the aim of enabling long-term lunar infrastructure for in-situ operations and the establishment of a moon village. One challenge for effective exploration missions is developing a compact and lightweight robotic rover to reduce launch costs and open the possibility for secondary payload options. Existing micro rovers for exploration missions are clearly limited by their design for one day of sunlight and their low level of autonomy. For expanding the potential mission applications and range of use, an extension of lifetime could be reached by surviving the lunar night and providing a higher level of autonomy. To address this objective, the paper presents a system design concept for a lightweight micro rover with long-term mission duration capabilities, derived from a multi-day lunar mission scenario at equatorial regions. Technical solution approaches are described, analyzed, and evaluated, with emphasis put on the harmonization of hardware selection due to a strictly limited budget in dimensions and power.
This paper presents a thermal simulation environment for moving objects on the lunar surface. The goal of the thermal simulation environment is to enable the reliable prediction of the temperature development of a given object on the lunar surface by providing the respective heat fluxes for a mission on a given travel path. The user can import any object geometry and freely define the path that the object should travel. Using the path of the object, the relevant lunar surface geometry is imported from a digital elevation model. The relevant parts of the lunar surface are determined based on distance to the defined path. A thermal model of these surface sections is generated, consisting of a porous layer on top and a denser layer below. The object is moved across the lunar surface, and its inclination is adapted depending on the slope of the terrain below it. Finally, a transient thermal analysis of the object and its environment is performed at several positions on its path and the results are visualized. The paper introduces details on the thermal modeling of the lunar surface, as well as its verification. Furthermore, the structure of the created software is presented. The robustness of the environment is verified with the help of sensitivity studies and possible improvements are presented.
Phase change materials offer a way of storing excess heat and releasing it when it is needed. They can be utilized as a method to control thermal behavior without the need for additional energy. This work focuses on exploring the potential of using phase change materials to passively control the thermal behavior of a star tracker by infusing it with a fitting phase change material. Based on the numerical model of the star trackers thermal behavior using ESATAN-TMS without implemented phase change material, a fitting phase change material for selected orbits is chosen and implemented in the thermal model. The altered thermal behavior of the numerical model after the implementation is analyzed for different amounts of the chosen phase change materials using an ESATAN-based subroutine developed by the FH Aachen. The PCM-modelling-subroutine is explained in the paper ICES-2021-110. The results show that an increasing amount of phase change material increasingly damps temperature oscillations. Using an integral part structure some of the mass increase can be compensated.
Infused Thermal Solutions (ITS) introduces a method for passive thermal control to stabilize structural components thermally without active heating and cooling systems, but with phase change material (PCM) for thermal energy storage (TES), in combination with lattice - both embedded in additive manufactured functional structures. In this ITS follow-on paper a thermal model approach and associated predictions are presented, related on the ITS functional breadboards developed at FH Aachen. Predictive TES by PCM is provided by a specially developed ITS PCM subroutine, which is applicable in ESATAN. The subroutine is based on the latent heat storage (LHS) method to numerically embed thermo-physical PCM behavior. Furthermore, a modeling approach is introduced to numerically consider the virtual PCM/lattice nodes within the macro-encapsulated PCM voids of the double wall ITS design. Related on these virtual nodes, in-plane and out-of-plane conductive links are defined. The recent additive manufactured ITS breadboard series are thermally cycled in the thermal vacuum chamber, both with and without embedded PCM. Related on breadboard hardware tests, measurement results are compared with predictions and are subsequently correlated. The results of specific simulations and measurements are presented. Recent predictive results of star tracker analyses are also presented in ICES-2021-106, based on this ITS PCM subroutine.
Critical quantitative evaluation of integrated health management methods for fuel cell applications
(2024)
Online fault diagnostics is a crucial consideration for fuel cell systems, particularly in mobile applications, to limit downtime and degradation, and to increase lifetime. Guided by a critical literature review, in this paper an overview of Health management systems classified in a scheme is presented, introducing commonly utilised methods to diagnose FCs in various applications. In this novel scheme, various Health management system methods are summarised and structured to provide an overview of existing systems including their associated tools. These systems are classified into four categories mainly focused on model-based and non-model-based systems. The individual methods are critically discussed when used individually or combined aimed at further understanding their functionality and suitability in different applications. Additionally, a tool is introduced to evaluate methods from each category based on the scheme presented. This tool applies the technique of matrix evaluation utilising several key parameters to identify the most appropriate methods for a given application. Based on this evaluation, the most suitable methods for each specific application are combined to build an integrated Health management system.
Ein Garten im Weltraum
(2017)
The Atmospheric Remote-Sensing Infrared Exoplanet Large-survey, ARIEL, has been selected to be the next (M4) medium class space mission in the ESA Cosmic Vision programme. From launch in 2028, and during the following 4 years of operation, ARIEL will perform precise spectroscopy of the atmospheres of ~1000 known transiting exoplanets using its metre-class telescope. A three-band photometer and three spectrometers cover the 0.5 µm to 7.8 µm region of the electromagnetic spectrum. This paper gives an overview of the mission payload, including the telescope assembly, the FGS (Fine Guidance System) - which provides both pointing information to the spacecraft and scientific photometry and low-resolution spectrometer data, the ARIEL InfraRed Spectrometer (AIRS), and other payload infrastructure such as the warm electronics, structures and cryogenic cooling systems.
Optical Instruments require an extremely stable thermal surrounding to prevent loss of data quality by misalignments of the instrument components resulting from material deformation due to temperature f luctuations (e.g. from solar intrusion). Phase Change Material (PCM) can be applied as a thermal damper to achieve a more uniform temperature distribution. The challenge of this method is, among others, the integration of PCM into affected areas. If correctly designed, incoming heat is latently absorbed during phase change of the PCM, i.e. the temperature of a structure remains almost constant. In a cold phase, the heat during phase change is released again latently until the PCM returns to its original state of aggregation. Thus, the structure is thermally stabilized. At FH Aachen– University of Applied Sciences research is conducted to apply PCM directly into the structures of affected components (baffles, optical benches, electronic boxes, etc.). Through the application of Additive Manufacturing, the necessary voids are directly printed into these structures and filled later with PCM. Additive Manufacturing enables complex structures that would not have been possible with conservative manufacturing methods. A corresponding Breadboard was developed and manufactured by Selective Laser Melting (SLM). The current state of research includes the handling and analysis of the Breadboard, tests and a correlation of the thermal model. The results have shown analytically and practically that it is possible to use PCM as an integral part of the structure as a thermal damper. The results serve as a basis for the further development of the technology, which should maximize performance and enable the integration of PCM into much more complex structures.
In the last decades, several hundred exoplanets could be detected thanks to space-based observatories, namely CNES’ COROT and NASA’s Kepler. To expand this quest ESA plans to launch CHEOPS as the f irst small class mission in the cosmic visions program (S1) and PLATO as the 3rd medium class mission, so called M3 . PLATO’s primary objective is the detection of Earth like Exoplanets orbiting solar type stars in the habitable zone and characterisation of their bulk properties. This is possible by precise lightcurve measurement via 34 cameras. That said it becomes obvious that accurate pointing is key to achieve the required signal to noise ratio for positive transit detection. The paper will start with a comprehensive overview of PLATO’s mission objectives and mission architecture. Hereafter, special focus will be devoted to PLATO’s pointing requirements. Understanding the very nature of PLATO’s pointing requirements is essential to derive a design baseline to achieve the required performance. The PLATO frequency domain is of particular interest, ranging from 40 mHz to 3 Hz. Due to the very different time-scales involved, the spectral pointing requirement is decomposed into a high frequency part dominated by the attitude control system and the low frequency part dominated by the thermo-elastic properties of the spacecraft’s configuration. Both pose stringent constraints on the overall design as well as technology properties to comply with the derived requirements and thus assure a successful mission.
The major advantage of labyrinth weirs over linear weirs is hydraulic efficiency. In hydraulic modeling efforts, this strength contrasts with limited pump capacity as well as limited computational power for CFD simulations. For the latter, reducing the number of investigated cycles can significantly reduce necessary computational time. In this study, a labyrinth weir with different cycle numbers was investigated. The simulations were conducted in FLOW-3D HYDRO as a Large Eddy Simulation. With a mean deviation of 1.75 % between simulated discharge coefficients and literature design equations, a reasonable agreement was found. For downstream conditions, overall consistent results were observed as well. However, the orientation of labyrinth weirs with a single cycle should be chosen carefully under consideration of the individual research purpose.
Meitner-Auger-electron emitters have a promising potential for targeted radionuclide therapy of cancer because of their short range and the high linear energy transfer of Meitner-Auger-electrons (MAE). One promising MAE candidate is 197m/gHg with its half-life of 23.8 h and 64.1 h, respectively, and high MAE yield. Gold nanoparticles (AuNPs) that are labelled with 197m/gHg could be a helpful tool for radiation treatment of glioblastoma multiforme when infused into the surgical cavity after resection to prevent recurrence. To produce such AuNPs, 197m/gHg was embedded into pristine AuNPs. Two different syntheses were tested starting from irradiated gold containing trace amounts of 197m/gHg. When sodium citrate was used as reducing agent, no 197m/gHg labelled AuNPs were formed, but with tannic acid, 197m/gHg labeled AuNPs were produced. The method was optimized by neutralizing the pH (pH = 7) of the Au/197m/gHg solution, which led to labelled AuNPs with a size of 12.3 ± 2.0 nm as measured by transmission electron microscopy. The labelled AuNPs had a concentration of 50 μg (gold)/mL with an activity of 151 ± 93 kBq/mL (197gHg, time corrected to the end of bombardment).
We present the production of 58mCo on a small, 13 MeV medical cyclotron utilizing a siphon style liquid target system. Different concentrated iron(III)-nitrate solutions of natural isotopic distribution were irradiated at varying initial pressures and subsequently separated by solid phase extraction chromatography. The radio cobalt (58m/gCo and 56Co) was successfully produced with saturation activities of (0.35 ± 0.03) MBq μA−1 for 58mCo with a separation recovery of (75 ± 2) % of cobalt after one separation step utilizing LN-resin.
Density reduction effects on the production of [11C]CO2 in Nb-body targets on a medical cyclotron
(2023)
Medical isotope production of 11C is commonly performed in gaseous targets. The power deposition of the proton beam during the irradiation decreases the target density due to thermodynamic mixing and can cause an increase of penetration depth and divergence of the proton beam. In order to investigate the difference how the target-body length influences the operation conditions and the production yield, a 12 cm and a 22 cm Nb-target body containing N2/O2 gas were irradiated using a 13 MeV proton cyclotron. It was found that the density reduction has a large influence on the pressure rise during irradiation and the achievable radioactive yield. The saturation activity of [11C]CO2 for the long target (0.083 Ci/μA) is about 10% higher than in the short target geometry (0.075 Ci/μA).
This thesis aims at the presentation and discussion of well-accepted and new
imaging techniques applied to different types of flow in common hydraulic
engineering environments. All studies are conducted in laboratory conditions and
focus on flow depth and velocity measurements. Investigated flows cover a wide
range of complexity, e.g. propagation of waves, dam-break flows, slightly and fully
aerated spillway flows as well as highly turbulent hydraulic jumps.
Newimagingmethods are compared to different types of sensorswhich are frequently
employed in contemporary laboratory studies. This classical instrumentation as well
as the general concept of hydraulic modeling is introduced to give an overview on
experimental methods.
Flow depths are commonly measured by means of ultrasonic sensors, also known as
acoustic displacement sensors. These sensors may provide accurate data with high
sample rates in case of simple flow conditions, e.g. low-turbulent clear water flows.
However, with increasing turbulence, higher uncertainty must be considered.
Moreover, ultrasonic sensors can provide point data only, while the relatively large
acoustic beam footprint may lead to another source of uncertainty in case of
relatively short, highly turbulent surface fluctuations (ripples) or free-surface
air-water flows. Analysis of turbulent length and time scales of surface fluctuations
from point measurements is also difficult. Imaging techniques with different
dimensionality, however, may close this gap. It is shown in this thesis that edge
detection methods (known from computer vision) may be used for two-dimensional
free-surface extraction (i.e. from images taken through transparant sidewalls in
laboratory flumes). Another opportunity in hydraulic laboratory studies comes with
the application of stereo vision. Low-cost RGB-D sensors can be used to gather
instantaneous, three-dimensional free-surface elevations, even in flows with very
high complexity (e.g. aerated hydraulic jumps). It will be shown that the uncertainty
of these methods is of similar order as for classical instruments.
Particle Image Velocimetry (PIV) is a well-accepted and widespread imaging
technique for velocity determination in laboratory conditions. In combination with
high-speed cameras, PIV can give time-resolved velocity fields in 2D/3D or even as
volumetric flow fields. PIV is based on a cross-correlation technique applied to small
subimages of seeded flows. The minimum size of these subimages defines the
maximum spatial resolution of resulting velocity fields. A derivative of PIV for
aerated flows is also available, i.e. the so-called Bubble Image Velocimetry (BIV). This
thesis emphasizes the capacities and limitations of both methods, using relatively
simple setups with halogen and LED illuminations. It will be demonstrated that
PIV/BIV images may also be processed by means of Optical Flow (OF) techniques.
OF is another method originating from the computer vision discipline, based on the
assumption of image brightness conservation within a sequence of images. The
Horn-Schunck approach, which has been first employed to hydraulic engineering
problems in the studies presented herein, yields dense velocity fields, i.e. pixelwise
velocity data. As discussed hereinafter, the accuracy of OF competes well with PIV
for clear-water flows and even improves results (compared to BIV) for aerated flow
conditions. In order to independently benchmark the OF approach, synthetic images
with defined turbulence intensitiy are used.
Computer vision offers new opportunities that may help to improve the
understanding of fluid mechanics and fluid-structure interactions in laboratory
investigations. In prototype environments, it can be employed for obstacle detection
(e.g. identification of potential fish migration corridors) and recognition (e.g. fish
species for monitoring in a fishway) or surface reconstruction (e.g. inspection of
hydraulic structures). It can thus be expected that applications to hydraulic
engineering problems will develop rapidly in near future. Current methods have not
been developed for fluids in motion. Systematic future developments are needed to
improve the results in such difficult conditions.
Elastic transmission eigenvalues and their computation via the method of fundamental solutions
(2020)
A stabilized version of the fundamental solution method to catch ill-conditioning effects is investigated with focus on the computation of complex-valued elastic interior transmission eigenvalues in two dimensions for homogeneous and isotropic media. Its algorithm can be implemented very shortly and adopts to many similar partial differential equation-based eigenproblems as long as the underlying fundamental solution function can be easily generated. We develop a corroborative approximation analysis which also implicates new basic results for transmission eigenfunctions and present some numerical examples which together prove successful feasibility of our eigenvalue recovery approach.
Electric flight has the potential for a more sustainable and energy-saving way of aviation compared to fossil fuel aviation. The electric motor can be used as a generator inflight to regenerate energy during descent. Three different approaches to regenerating with electric propeller powertrains are proposed in this paper. The powertrain is to be set up in a wind tunnel to determine the propeller efficiency in both working modes as well as the noise emissions. Furthermore, the planned flight tests are discussed. In preparation for these tests, a yaw stability analysis is performed with the result that the aeroplane is controllable during flight and in the most critical failure case. The paper shows the potential for inflight regeneration and addresses the research gaps in the dual role of electric powertrains for propulsion and regeneration of general aviation aircraft.
This paper discusses a new way of inflight power regeneration for electric or hybrid-electric driven general aviation aircraft with one powertrain for both configurations. Three different approaches for the shift from propulsion to regeneration mode are analyzed. Numerical cal-culation and wind tunnel results are compared and show the highest regeneration potential for the "Windmill" approach, where the propeller blades are flipped, and rotation is reversed. A combination of all regeneration approaches for a realistic flight mission is discussed.
Die potenziellen Auswirkungen der Digitalisierung auf die Lehre sind seit langem Gegenstand ausführlicher Diskussionen innerhalb der Wirtschaftsinformatik (WI) (z. B. in Auth et al. 2021, Barton et al. 2019, Klotz et al. 2019). Nicht zuletzt der in nahezu allen Wirtschaftszweigen bestehende Mangel an qualifizierten Fachkräften lenkt den Diskurs auf einen verbesserten Zugang zu Bildung und gleichen Bildungschancen. Aus dieser Vision heraus und dem Schub der Digitalisierung entstehen Bildungskonzepte wie Open Educational Resources (OER), die gesellschaftlichen Problemen, wie dem des Fachkräftemangels, entgegenwirken sollen. Im Rahmen dieses Kurzbeitrags wird das Projekt WiLMo - "Wirtschaftsinformatik Lehr- und Lernmodule" vorgestellt. WiLMo wird im Rahmen von OERContent.nrw unter Beteiligung von sechs Hochschulen entwickelt und gefördert. Alle Projektbeteiligten arbeiten gemeinsam daran, einheitliche digitale Lehr- und Lernmaterialien im OER-Format für die Kernmodule der Wirtschaftsinformatik zu entwickeln und in garantiert hoher Qualität zur Verfügung zu stellen.
The development and operation of hybrid or purely electrically powered aircraft in regional air mobility is a significant challenge for the entire aviation sector. This technology is expected to lead to substantial advances in flight performance, energy efficiency, reliability, safety, noise reduction, and exhaust emissions. Nevertheless, any consumed energy results in heat or carbon dioxide emissions and limited electric energy storage capabilities suppress commercial use. Therefore, the significant challenges to achieving eco-efficient aviation are increased aircraft efficiency, the development of new energy storage technologies, and the optimization of flight operations. Two major approaches for higher eco-efficiency are identified: The first one, is to take horizontal and vertical atmospheric motion phenomena into account. Where, in particular, atmospheric waves hold exciting potential. The second one is the use of the regeneration ability of electric aircraft. The fusion of both strategies is expected to improve efficiency. The objective is to reduce energy consumption during flight while not neglecting commercial usability and convenient flight characteristics. Therefore, an optimized control problem based on a general aviation class aircraft has to be developed and validated by flight experiments. The formulated approach enables a development of detailed knowledge of the potential and limitations of optimizing flight missions, considering the capability of regeneration and atmospheric influences to increase efficiency and range.
In der wasserbaulichen Forschung werden neben klassischen Messinstrumenten zunehmend kamerabasierte Verfahren genutzt. Diese erlauben neben der Bestimmung von Fließgeschwindigkeiten auch die Detektion der freien Wasseroberfläche oder zeitliche Vermessung von Kolken. Durch die hohen räumlichen und zeitlichen Auflösungen, welche neueste Kamerasensoren liefern, können neue Erkenntnisse in turbulenten, komplexen Strömungen gewonnen werden. Auch in der Praxis können diese Verfahren mit geringem Aufwand wichtige Daten liefern.
Reducing poverty, protecting the planet, and improving life on earth for everyone are the essential goals of the "2030 Agenda for Sustainable Development"committed by the United Nations (UN). Achieving those goals will require technological innovation as well as their implementation in almost all areas of our business and day-to-day life. This paper proposes a high-level framework that collects and structures different uses cases addressing the goals defined by the UN. Hence, it contributes to the discussion by proposing technical innovations that can be used to achieve those goals. As an example, the goal "Climate Actionïs discussed in detail by describing use cases related to tackling biodiversity loss in order to conservate ecosystems.
The management of knowledge in organizations considers both established long-term processes and cooperation in agile project teams. Since knowledge can be both tacit and explicit, its transfer from the individual to the organizational knowledge base poses a challenge in organizations. This challenge increases when the fluctuation of knowledge carriers is exceptionally high. Especially in large projects in which external consultants are involved, there is a risk that critical, company-relevant knowledge generated in the project will leave the company with the external knowledge carrier and thus be lost. In this paper, we show the advantages of an early warning system for knowledge management to avoid this loss. In particular, the potential of visual analytics in the context of knowledge management systems is presented and discussed. We present a project for the development of a business-critical software system and discuss the first implementations and results.
Open Data impliziert die freie Zugänglichkeit, Verfügbarkeit und Wiederverwendbarkeit von Datensätzen. Obwohl hochwertige Datensätze öffentlich verfügbar sind, ist der Zugang zu diesen und die Transparenz über die Formate nicht immer gegeben. Dies mindert die optimale Nutzung des Potenzials zur Wertschöpfung, trotz der vorherrschenden Einigkeit über ihre Chancen. Denn Open Data ermöglicht das Vorantreiben von Compliance-Themen wie Transparenz und Rechenschaftspflicht bis hin zur Förderung von Innovationen. Die Nutzung von Open Data erfordert Mut und eine gemeinsame Anstrengung verschiedener Akteure und Branchen. Im Rahmen des vorliegenden Beitrags werden auf Grundlage des Design Science-Ansatzes eine Open Data Capability Map sowie darauf aufbauend eine Datenarchitektur für Open Data in der Luftfahrtindustrie an einem Beispiel entwickelt.
The low-pressure system Bernd involved extreme rainfalls in the Western part of Germany in July 2021,
resulting in major floods, severe damages and a tremendous number of casualties. Such extreme events
are rare and full flood protection can never be ensured with reasonable financial means. But still, this
event must be starting point to reconsider current design concepts. This article aims at sharing some
thoughts on potential hazards, the selection of return periods and remaining risk with the focus on Germany.
We present new numerical results for shape optimization problems of interior Neumann eigenvalues. This field is not well understood from a theoretical standpoint. The existence of shape maximizers is not proven beyond the first two eigenvalues, so we study the problem numerically. We describe a method to compute the eigenvalues for a given shape that combines the boundary element method with an algorithm for nonlinear eigenvalues. As numerical optimization requires many such evaluations, we put a focus on the efficiency of the method and the implemented routine. The method is well suited for parallelization. Using the resulting fast routines and a specialized parametrization of the shapes, we found improved maxima for several eigenvalues.
The method of fundamental solutions is applied to the approximate computation of interior transmission eigenvalues for a special class of inhomogeneous media in two dimensions. We give a short approximation analysis accompanied with numerical results that clearly prove practical convenience of our alternative approach.
Mathematical morphology is a part of image processing that has proven to be fruitful for numerous applications. Two main operations in mathematical morphology are dilation and erosion. These are based on the construction of a supremum or infimum with respect to an order over the tonal range in a certain section of the image. The tonal ordering can easily be realised in grey-scale morphology, and some morphological methods have been proposed for colour morphology. However, all of these have certain limitations.
In this paper we present a novel approach to colour morphology extending upon previous work in the field based on the Loewner order. We propose to consider an approximation of the supremum by means of a log-sum exponentiation introduced by Maslov. We apply this to the embedding of an RGB image in a field of symmetric 2x2 matrices. In this way we obtain nearly isotropic matrices representing colours and the structural advantage of transitivity. In numerical experiments we highlight some remarkable properties of the proposed approach.
Direct sampling method via Landweber iteration for an absorbing scatterer with a conductive boundary
(2024)
In this paper, we consider the inverse shape problem of recovering isotropic scatterers with a conductive boundary condition. Here, we assume that the measured far-field data is known at a fixed wave number. Motivated by recent work, we study a new direct sampling indicator based on the Landweber iteration and the factorization method. Therefore, we prove the connection between these reconstruction methods. The method studied here falls under the category of qualitative reconstruction methods where an imaging function is used to recover the absorbing scatterer. We prove stability of our new imaging function as well as derive a discrepancy principle for recovering the regularization parameter. The theoretical results are verified with numerical examples to show how the reconstruction performs by the new Landweber direct sampling method.
We consider the numerical approximation of second-order semi-linear parabolic stochastic partial differential equations interpreted in the mild sense which we solve on general two-dimensional domains with a C² boundary with homogeneous Dirichlet boundary conditions. The equations are driven by Gaussian additive noise, and several Lipschitz-like conditions are imposed on the nonlinear function. We discretize in space with a spectral Galerkin method and in time using an explicit Euler-like scheme. For irregular shapes, the necessary Dirichlet eigenvalues and eigenfunctions are obtained from a boundary integral equation method. This yields a nonlinear eigenvalue problem, which is discretized using a boundary element collocation method and is solved with the Beyn contour integral algorithm. We present an error analysis as well as numerical results on an exemplary asymmetric shape, and point out limitations of the approach.
Analysis and computation of the transmission eigenvalues with a conductive boundary condition
(2022)
We provide a new analytical and computational study of the transmission eigenvalues with a conductive boundary condition. These eigenvalues are derived from the scalar inverse scattering problem for an inhomogeneous material with a conductive boundary condition. The goal is to study how these eigenvalues depend on the material parameters in order to estimate the refractive index. The analytical questions we study are: deriving Faber–Krahn type lower bounds, the discreteness and limiting behavior of the transmission eigenvalues as the conductivity tends to infinity for a sign changing contrast. We also provide a numerical study of a new boundary integral equation for computing the eigenvalues. Lastly, using the limiting behavior we will numerically estimate the refractive index from the eigenvalues provided the conductivity is sufficiently large but unknown.
Fields of asymmetric tensors play an important role in many applications such as medical imaging (diffusion tensor magnetic resonance imaging), physics, and civil engineering (for example Cauchy-Green-deformation tensor, strain tensor with local rotations, etc.). However, such asymmetric tensors are usually symmetrized and then further processed. Using this procedure results in a loss of information. A new method for the processing of asymmetric tensor fields is proposed restricting our attention to tensors of second-order given by a 2x2 array or matrix with real entries. This is achieved by a transformation resulting in Hermitian matrices that have an eigendecomposition similar to symmetric matrices. With this new idea numerical results for real-world data arising from a deformation of an object by external forces are given. It is shown that the asymmetric part indeed contains valuable information.
An alternative method is presented to numerically compute interior elastic transmission eigenvalues for various domains in two dimensions. This is achieved by discretizing the resulting system of boundary integral equations in combination with a nonlinear eigenvalue solver. Numerical results are given to show that this new approach can provide better results than the finite element method when dealing with general domains.
The hot spots conjecture is only known to be true for special geometries. This paper shows numerically that the hot spots conjecture can fail to be true for easy to construct bounded domains with one hole. The underlying eigenvalue problem for the Laplace equation with Neumann boundary condition is solved with boundary integral equations yielding a non-linear eigenvalue problem. Its discretization via the boundary element collocation method in combination with the algorithm by Beyn yields highly accurate results both for the first non-zero eigenvalue and its corresponding eigenfunction which is due to superconvergence. Additionally, it can be shown numerically that the ratio between the maximal/minimal value inside the domain and its maximal/minimal value on the boundary can be larger than 1 + 10− 3. Finally, numerical examples for easy to construct domains with up to five holes are provided which fail the hot spots conjecture as well.
There is a very large number of very important situations which can be modeled with nonlinear parabolic partial differential equations (PDEs) in several dimensions. In general, these PDEs can be solved by discretizing in the spatial variables and transforming them into huge systems of ordinary differential equations (ODEs), which are very stiff. Therefore, standard explicit methods require a large number of iterations to solve stiff problems. But implicit schemes are computationally very expensive when solving huge systems of nonlinear ODEs. Several families of Extrapolated Stabilized Explicit Runge-Kutta schemes (ESERK) with different order of accuracy (3 to 6) are derived and analyzed in this work. They are explicit methods, with stability regions extended, along the negative real semi-axis, quadratically with respect to the number of stages s, hence they can be considered to solve stiff problems much faster than traditional explicit schemes. Additionally, they allow the adaptation of the step length easily with a very small cost.
Two new families of ESERK schemes (ESERK3 and ESERK6) are derived, and analyzed, in this work. Each family has more than 50 new schemes, with up to 84.000 stages in the case of ESERK6. For the first time, we also parallelized all these new variable step length and variable number of stages algorithms (ESERK3, ESERK4, ESERK5, and ESERK6). These parallelized strategies allow to decrease times significantly, as it is discussed and also shown numerically in two problems. Thus, the new codes provide very good results compared to other well-known ODE solvers. Finally, a new strategy is proposed to increase the efficiency of these schemes, and it is discussed the idea of combining ESERK families in one code, because typically, stiff problems have different zones and according to them and the requested tolerance the optimum order of convergence is different.
Interior transmission eigenvalue problems for the Helmholtz equation play an important role in inverse wave scattering. Some distribution properties of those eigenvalues in the complex plane are reviewed. Further, a new scattering model for the interior transmission eigenvalue problem with mixed boundary conditions is described and an efficient algorithm for computing the interior transmission eigenvalues is proposed. Finally, extensive numerical results for a variety of two-dimensional scatterers are presented to show the validity of the proposed scheme.
A second-order L-stable exponential time-differencing (ETD) method is developed by combining an ETD scheme with approximating the matrix exponentials by rational functions having real distinct poles (RDP), together with a dimensional splitting integrating factor technique. A variety of non-linear reaction-diffusion equations in two and three dimensions with either Dirichlet, Neumann, or periodic boundary conditions are solved with this scheme and shown to outperform a variety of other second-order implicit-explicit schemes. An additional performance boost is gained through further use of basic parallelization techniques.
In this article, a concept of implicit methods for scalar conservation laws in one or more spatial dimensions allowing also for source terms of various types is presented. This material is a significant extension of previous work of the first author (Breuß SIAM J. Numer. Anal. 43(3), 970–986 2005). Implicit notions are developed that are centered around a monotonicity criterion. We demonstrate a connection between a numerical scheme and a discrete entropy inequality, which is based on a classical approach by Crandall and Majda. Additionally, three implicit methods are investigated using the developed notions. Next, we conduct a convergence proof which is not based on a classical compactness argument. Finally, the theoretical results are confirmed by various numerical tests.
The inverse scattering problem for a conductive boundary condition and transmission eigenvalues
(2018)
In this paper, we consider the inverse scattering problem associated with an inhomogeneous media with a conductive boundary. In particular, we are interested in two problems that arise from this inverse problem: the inverse conductivity problem and the corresponding interior transmission eigenvalue problem. The inverse conductivity problem is to recover the conductive boundary parameter from the measured scattering data. We prove that the measured scatted data uniquely determine the conductivity parameter as well as describe a direct algorithm to recover the conductivity. The interior transmission eigenvalue problem is an eigenvalue problem associated with the inverse scattering of such materials. We investigate the convergence of the eigenvalues as the conductivity parameter tends to zero as well as prove existence and discreteness for the case of an absorbing media. Lastly, several numerical and analytical results support the theory and we show that the inside–outside duality method can be used to reconstruct the interior conductive eigenvalues.
The aim of the current study was to investigate the performance of integrated RF
transmit arrays with high channel count consisting of meander microstrip antennas
for body imaging at 7 T and to optimize the position and number of transmit ele-
ments. RF simulations using multiring antenna arrays placed behind the bore liner
were performed for realistic exposure conditions for body imaging. Simulations were
performed for arrays with as few as eight elements and for arrays with high channel
counts of up to 48 elements. The B1+ field was evaluated regarding the degrees of
freedom for RF shimming in the abdomen. Worst-case specific absorption rate
(SARwc ), SAR overestimation in the matrix compression, the number of virtual obser-
vation points (VOPs) and SAR efficiency were evaluated. Constrained RF shimming
was performed in differently oriented regions of interest in the body, and the devia-
tion from a target B1+ field was evaluated. Results show that integrated multiring
arrays are able to generate homogeneous B1+ field distributions for large FOVs, espe-
cially for coronal/sagittal slices, and thus enable body imaging at 7 T with a clinical
workflow; however, a low duty cycle or a high SAR is required to achieve homoge-
neous B1+ distributions and to exploit the full potential. In conclusion, integrated
arrays allow for high element counts that have high degrees of freedom for the pulse
optimization but also produce high SARwc , which reduces the SAR accuracy in the
VOP compression for low-SAR protocols, leading to a potential reduction in array
performance. Smaller SAR overestimations can increase SAR accuracy, but lead to a
high number of VOPs, which increases the computational cost for VOP evaluation
and makes online SAR monitoring or pulse optimization challenging. Arrays with
interleaved rings showed the best results in the study.
Wie kann man das Thema Forschungsdatenmanagement (FDM) konkret und anwendbar für Forschende gestalten, die bisher noch wenig Kontakt damit hatten? Auf diese Frage gibt das Konzept „30 Minuten FDM für HAW. Ein Informationsformat für Forschende an HAW in NRW“ eine Antwort. Es entstand als Projektarbeit im Zertifikatskurs Forschungsdatenmanagement 2023/24
Ingenieurwissenschaften im Fokus: Zugänge zu einem effektiven Forschungsdatenmanagement an HAW
(2024)
Im Rahmen der Love Data Week vom 12. bis 16.02.2024 haben die BMBF-Projekte FDM2_TH_Koeln der TH Köln (FK 16FDFH105) und Persist@HAW der FH Aachen (FK 16FDFH129) am 15.02.2024 gemeinsam eine Online-Veranstaltung mit dem Titel „Ingenieurwissenschaften im Fokus: Zugänge zu einem effektiven Forschungsdatenmanagement an HAW“ angeboten. Diese richtete sich an Forschende aus den Ingenieurwissenschaften, die einen ersten Zugang zum Thema Forschungsdatenmanagement (FDM) suchen und erfahren möchten, welche speziellen Angebote für die Daten aus den Ingenieurwissenschaften existieren.
In der Veranstaltung wurden wesentliche Aspekte des Forschungsdatenmanagements entlang des Datenlebenszyklus beleuchtet. Ziel war es, den Teilnehmenden praxisnahe Einblicke und Hilfestellungen zu einem effektiven Umgang mit Forschungsdaten an Hochschulen für Angewandte Wissenschaften (HAW) zu bieten. Durch Beispiele und konkrete Empfehlungen wurde das Thema zugänglich gemacht.
Um die Forschungsdatenmanagement-Plattform Coscine optimal für Forschungsprojekte nutzen zu können, ist es sinnvoll, einige Fragen im Vorhinein zu klären. So können aufwendige Änderungen der Datenverwaltung im Nachhinein vermieden werden. Hierzu bietet die Handreichung hilfreiche Leitfragen und Erläuterungen für Forschende und FDM-Service-Personal an HAW in NRW (DH.NRW-Hochschulen).
FDM-Service-Mitarbeitende können die Handreichung in ihrer Beratung zu Coscine einsetzen und mit der Eingabemaske in der Kopfzeile des Dokuments auf ihre Hochschule anpassen.
Welche Vorteile bietet die Forschungsdatenmanagement-Plattform Coscine für die Verwaltung von Daten in Forschungsprojekten? Hierzu gibt die Handreichung einen schnellen Überblick über den landesgeförderten Dienst Coscine für Forschende und FDM-Service-Personal an HAW in NRW (DH.NRW-Hochschulen).
FDM-Service-Mitarbeitende können die Handreichung in ihrer Beratung zu Coscine einsetzen und mit der Eingabemaske in der Kopfzeile des Dokuments auf ihre Hochschule anpassen.
After a brief introduction of conventional laboratory structures, this work focuses on an innovative and universal approach for a setup of a training laboratory for electric machines and drive systems. The novel approach employs a central 48 V DC bus, which forms the backbone of the structure. Several sets of DC machine, asynchronous machine and synchronous machine are connected to this bus. The advantages of the novel system structure are manifold, both from a didactic and a technical point of view: Student groups can work on their own performance level in a highly parallelized and at the same time individualized way. Additional training setups (similar or different) can easily be added. Only the total power dissipation has to be provided, i.e. the DC bus balances the power flow between the student groups. Comparative results of course evaluations of several cohorts of students are shown.
The Inverted Rotary Pendulum: Facilitating Practical Teaching in Advanced Control Engineering
(2024)
This paper outlines a practical approach to teach control engineering principles, with an inverted rotary pendulum, serving as an illustrative example. It shows how the pendulum is embedded in an advanced course of control engineering. This approach is incorporated into a flipped-classroom concept, as well as classical teaching concepts, offering students practical experience in control engineering. In addition, the design of the pendulum is shown, using a Raspberry Pi as the target platform for Matlab Simulink. This pendulum can be used in the classroom to evaluate the controller design mentioned above. It is analysed if the use of the pendulum generates a deeper understanding of the learning contents.
This paper serves as an introduction to the ECTS monitoring system and its potential applications in higher education. It also emphasizes the potential for ECTS monitoring to become a proactive system, supporting students by predicting academic success and identifying groups of potential dropouts for tailored support services. The use of the nearest neighbor analysis is suggested for improving data analysis and prediction accuracy.
Das Diskussionspapier beschreibt einen Prozess an der FH Aachen zur Entwicklung und Implementierung eines Self-Assessment-Tools für Studiengänge. Dieser Prozess zielte darauf ab, die Relevanz der Themen Digitalisierung, Internationalisierung und Nachhaltigkeit in Studiengängen zu stärken. Durch Workshops und kollaborative Entwicklung mit Studiendekan:innen entstand ein Fragebogen, der zur Reflexion und strategischen Weiterentwicklung der Studiengänge dient.
Im Verfahren gegen die Österreichische Post AG (Rs. C-300/21) befasste sich der EuGH erstmals mit dem in Art. 82 DS-GVO geregelten datenschutzrechtlichen Schadensersatzanspruch. Mit den Klarstellungen des EuGH verschieben sich die Probleme nun stärker zu den „klassischen“ Fragen des Schadensersatzrechts im Zivilprozess. Relevant sind dabei vor allem Aspekte der Darlegungs- und Beweislast und deren Besonderheiten mit Blick auf den Ersatz immaterieller Schäden. Der Beitrag fokussiert sich auf die Voraussetzungen und den dabei zu führenden Tatsachenbeweis bei der Klage des Betroffenen gegen den Verantwortlichen auf Ersatz immaterieller Schäden.
Kartellrecht vs. Datenschutzrecht: Rechtsgrundlagen für die Datenverarbeitung in sozialen Netzwerken
(2023)
Bald eine Dekade ist es her, dass diese annähernd mantraartig wiederholte Phrase Unternehmen zur Umsetzung datenschutzrechtlicher Vorgaben incentivierte. Was ist davon geblieben? Nur wenige in Deutschland verhängte Bußgelder erreichten Millionenhöhe. Hintergrund ist (auch) das deutsche Ordnungswidrigkeitenrecht, welches in einem Spannungsverhältnis zu den Vorgaben der DS-GVO steht. Ein Bußgeldbescheid der Berliner Datenschutzaufsicht gegen die Deutsche Wohnen sollte Auslöser eines langen, fortdauernden Rechtsstreits werden. Auf Vorlage des KG hatte der EuGH in der Rechtssache C-807/21 („Deutsche Wohnen“) erstmals Gelegenheit, sich zur Frage der Bußgeldhaftung zu positionieren.
Seit Ende 2022 prägt das Schlagwort „Künstliche Intelligenz“ (KI) nicht nur den rechtswissenschaftlichen Diskurs. Die allgemeine Verfügbarkeit von generativen KI-Modellen, allen voran die großen Sprachmodelle (Large Language Models, kurz: LLM) wie ChatGPT von OpenAI oder Bing AI von Microsoft, erfreuen sich größter Beliebtheit: LLM sind in der Lage, auf Grundlage statistischer Methoden – eine entsprechende Schnittstelle (Interface) vorausgesetzt – auch technisch wenig versierten Nutzern verständliche Antworten auf ihre Fragen zu liefern. Dabei werden nicht nur umfassend Nutzerdaten verarbeitet, sondern auch auf weitere personenbezogene Daten zugegriffen sowie neue Daten erzeugt. Der Beitrag geht der Frage nach, welche spezifischen datenschutzrechtlichen Herausforderungen sich für Unternehmen beim Einsatz solcher LLM stellen.
Das Thema Datenschutz wurde bei der öffentlichen Auftragsvergabe bislang vor allem in Bezug auf Drittlandtransfers personenbezogener Daten in die USA diskutiert. Jedoch spielt der Datenschutz für das Vergabeverfahren und für die Ausführung datenschutzrelevanter Leistungen generell eine wesentliche Rolle. Gleichwohl herrschen bislang unter öffentlichen Auftraggebern Schwierigkeiten, datenschutzrechtlich relevante Fallkonstellationen zu erkennen, die möglichen Risiken daraus abzuleiten und, sofern dies gelingt, diesen Risiken angemessen zu begegnen. Der vorliegende Beitrag befasst sich mit der datenschutzrechtlichen Verantwortlichkeit, ihren Folgen und den daraus resultierenden Konsequenzen für die Gestaltung von Vergabeverfahren und Vergabeunterlagen.
Depressed Furniture ist eine abstrakte Übersetzung von Depressionen in Möblierung. Es handelt sich um eine Rauminstallation von fünf Leuchten, die der Erkrankung in einem unüblichen Kontext eine Plattform gibt. Dadurch stellt das Projekt eine Schnittstelle zwischen Kunst, Design und Gesellschaft dar. Jede Leuchte verkörpert eine Empfindung, mit der sich ein Großteil der Betroffenen identifizieren kann. Es wird Bewusstsein für die Komplexität der Krankheit geschaffen und das Tabu um mentale Krankheiten gebrochen. Neben der Regular Collection können auch Tischvarianten (Compact Collection) erworben werden. Depressed Furniture zeigt, dass es durchaus möglich ist, eine unschöne Thematik zu abstrahieren und ihr neutral zu begegnen. Es verdeutlicht, wie Design dazu beitragen kann, sensible Themen auf kreative Weise zu kommunizieren.
Zookunft: Zoo der Zukunft
(2024)
Inmitten globaler Natur- und Artenschutzherausforderungen ist die Transformation zoologischer Einrichtungen entscheidend. "Zookunft" präsentiert ein innovatives Konzept für ein Tropenhaus im Kölner Zoo, das Natur und Augmented Reality einzigartig verknüpft. Ziel ist ein Raumkonzept, welches den Besucher:innen ein tiefes Verständnis für die Fauna und Flora des südostasiatischen Regenwaldes vermitteln soll. Durch die geschickte Integration von Augmented Reality entsteht eine innovative Lern- und Erlebniswelt, die Umweltschutz- und Artenschutzbemühungen unterstützt und nachhaltige Bildung fördert. Besuchende tauchen aktiv in die faszinierende Welt des Regenwaldes ein, wenn Natur und Augmented Reality eine immersive Umgebung schaffen. "Zookunft" soll als Vorreiter für Zooumgestaltungen dienen, Mensch und Natur verbinden und nachhaltige Bildung fördern. Ein Raum, der Naturerlebnisse und Technologie beeindruckend kombiniert.
ARCHER : become the Arrow
(2024)
„Archer“ ist ein Redesign des Freischwingers. Ein klassischer Freischwinger ist ein aus Rohr gebogener Stuhl ohne Hinterbeine. Das Konzept des Freischwingers macht sich die Elastizität des Stahlrohrs zunutze, um einen schwingenden Sitz zu produzieren. An dieses Konzept knüpft „Archer“ herstellungstechnisch an, ergänzt jedoch ein paar Features. Der erste „USP“ ist die Rückenlehne, welche aus Nylonschnur gewoben ist. Die Lehne rahmt mehrdimensional eine Sattelfläche ein, die sich überraschend ergonomisch dem Rücken anpasst. Sie wächst aus den Armlehnen von vorne hinter dem Rücken zusammen. Eine weitere Neuheit sind die Hinterbeine des Stuhls. Der Schwung soll nicht weg, sondern hin zu dem, was was vor den Nutzenden liegt. In Kombination mit der Lehne, die aus den Armlehnen wächst und hinter dem Rücken schließt, ist das Gewicht über den Beinen gut ausbalanciert. In seinem Aufbau vereint Er ein reduziertes klares Stahlgestell mit dramatisch gewobener Schnur. Die zwei sichtbaren Materialien im Spiel miteinander werden optisch nur noch ergänzt von einem aus Kupfer, Messing oder Edelstahl gedrehten Stopfen mit konischem InLay. Der völlig eigene Aufbau mit Hinterbeinen und Armlehnen erlaubt federleichtes Schwingen, einfaches Aufstehen, neutralisiert Nervosität und fängt den Nutzer / die Nutzerin sanft auf. Die ineinander verwobenen Schnüre teilen das Gewicht gleichmäßig unter sich auf. Industrielle Herstellungsmethoden in Kombination mit Handarbeit machen diesen Stuhl zu etwas besonderem und da dem Konzept farblich kein Ende gesetzt ist, hat jeder Stuhl das Potenzial, zu einem unverkennbaren Einzelstück zu werden.
KALLE ist ein mitwachsender Kindertisch, dessen Besonderheit, neben der Höhenverstellung, in der Vergrößerung der Tischplatte liegt. Hierdurch kann KALLE optimal an das Wachstum der Kinder und die sich ändernden Anforderungen angepasst werden.
Es ist ein Möbelstück, das die Entwicklung der Kinder begleitet und fördert.
Im Gebrauch bezieht sich die Förderung besonders auf die kognitive Entwicklung, die Kreativität und das Sozialverhalten. Darüber hinaus sollen die Kinder mit KALLE aber auch den Umgang mit langlebigen Produkten erlernen, damit sie ein Verständnis für Nachhaltigkeit und ein umweltbewusstes Konsumverhalten entwickeln.
Seegras wird als „Rohstoff der Zukunft“ betitelt, da es helfen könnte, eine Reihe von globalen Problemen zu bekämpfen. Viele der erhofften Innovationen sind heute aber noch hypothetisch. Außerdem ist das Thema in der westlichen Welt trotz der Neigung zum Klimaschutz kaum bekannt. Die Idee von „Land Rover Symbiosis“ ist ein nachhaltiges Tourismuskonzept, das Forschung und Erlebnisreisen miteinander verknüpft. Auf einer 70m Katamaran Superyacht ist Platz für Forschungszwecke auf der einen und Raum für Expeditionsurlaub auf der anderen Seite. So entsteht ein Verhältnis an Bord, bei dem beide Parteien voneinander profitieren: Wissenschaftler:innen erhalten finanzielle Unterstützung und Kund:innen haben ein klimaneutrales Urlaubserlebnis, bei dem sie hautnah die Vorzüge und Potenziale von Seegras kennenlernen.
Incontrare, was übersetzt Begegnung bedeutet, ist ein Konferenztischkonzept, der durch seinen modularen
Aufbau heraus sticht. Dem Kunden ist es möglich das Produkt mit einem einzigen Werkzeug - fünfer Imbusschlüssel - aufzubauen. Der modulare Aufbau bietet die Möglichkeit kundenorientiert ein Produkt zusammensetzen zu können. Incontrare bietet hierdurch eine Vielzahl an Variationen, die nicht nur die gestalterischen Aspekte anspricht, sondern auch verschiedene Preisklassen abdeckt. Incontrare ist ein Tischkonzept, das sowohl im niederpreisigen , sowie auch im HighEnd Bereich funktioniert.
Klavierspielende Künstlerinnen und Künstler finden sich auf der Bühne meist an einer Kombination aus Keyboard und Keyboardständer wieder. Zwar kann der Klang eines Klaviers technisch brillant simuliert werden, jedoch verliert das Bühnenbild den Mehrwert eines traditionellen Klaviers. Um diesem Verlust von Authentizität und Wohlgefühl auf der Bühne endlich etwas entgegenzusetzen, soll ein "dupiano" gängige Keyboardständer ersetzen und sämtliche Keyboards in das Erscheinungsbild eines akustischen Klaviers hüllen. Dadurch sollen auch die visuellen Eindrücke, verknüpft mit den akustischen, an Authentizität gewinnen und den Klavierauftritt vervollständigen. Es ist leicht, stabil und ohne Werkzeug in unter 10 Sekunden aufbaubar. Auch der Abbau geschieht in unter 10 Sekunden. Verstaut werden kann es von einer Person in jedem Kofferraum. "dupiano" - was nach Klavier klingt, soll auch so aussehen!
In der Abschlussarbeit „FILOS“ wurde in Zusammenarbeit mit dem Fraunhofer-Institut für Lasertechnik (ILT) ein Front-End für das laserbasierte Osteotom STELLA entwickelt. STELLA soll Kraniotomie (das Eröffnen des Schädels) im wachen Zustand ermöglichen und erfordert eine benutzerfreundliche Bedienungsplattform sowie ein funktionales und ästhetisches Design. Das Ziel von „FILOS“ war es, ein Gehäuse zu entwerfen, das den medizinischen Anforderungen entspricht, und ein Bedienkonzept zu entwickeln, dass die Akzeptanz bei Patient:innen und Anwender:innen fördert. Durch Expert:innen-Interviews mit Neurochirurg:innen und enge Zusammenarbeit mit dem ILT wurde ein durchdachtes Design entwickelt. Dieses soll den Anforderungen der Anwender:innen gerecht werden, das zukünftige Operationssystem repräsentieren und somit einen Mehrwert in der Medizin schaffen.
4CH TX/RX Surface Coil for 7T: Design, Optimization and Application for Cardiac Function Imaging
(2010)
Practical impediments of ultra high field cardiovascular MR (CVMR) can be catalogued in exacerbated magnetic field and radio frequency (RF) inhomogeneities, susceptibility and off-resonance effects, conductive and dielectric effects in tissue, and RF power deposition constraints, which all bear the potential to spoil the benefit of CVMR at 7T. Therefore, a four element cardiac transceive surface coil array was developed. Cardiac imaging provided clinically acceptable signal homogeneity with an excellent blood myocardium contrast. Subtle anatomic structures, such as pericardium, mitral and tricuspid valves and their apparatus, papillary muscles, and trabecles were accurately delineated.
As high-field cardiac MRI (CMR) becomes more widespread the propensity of ECG to distortions and mistriggering increases and with it the motivation for a cardiac triggering alternative. Hence, this study explores the suitability of acoustic cardiac triggering (ACT) for left ventricular (LV) function assessment in healthy subjects at 1.5T and 3.0T.
High Spatial Resolution 3D MRI of the Larynx Using a Dedicated TX/RX Phased Array Coil at 7.0T
(2010)
MRI holds great potential for elucidating laryngeal and vocal fold anatomy together with the assessment of physiological processes associated in human phonation. However, MRI of human phonation remains very challenging due to the small size of the targeted structures, interfering signal from fat, air between the vocal folds and surrounding muscles and physiological motion. These anatomical/physiological constraints translate into stringent technical requirements in balancing, scan time, image contrast, immunity to physiological motion, temporal resolution and spatial resolution. Motivated by these challenges and limitations this study is aiming at translating the sensitivity gain at ultra-high magnetic fields for enhanced high spatial resolution 3D imaging of the larynx and vocal tract. To approach this goal a dedicated two channel TX/RX larynx coil is being proposed.
The magnetic forces of fringe magnetic fields of MR systems on ferromagnetic components can impose a severe patient, occupational health and safety hazard. MRI accidents are listed as number 9 of the top 10 risks in modern medicine. With the advent of ultrahigh field MR systems including passively shielded magnet versions, this risk, commonly known as the missile or projectile effect is even more pronounced. A strategy employing magnetic field sensors which can be attached to ferromagnetic objects that are commonly used in a clinical environment is conceptually appealing for the pursuit of reducing the risk of ferromagnetic projectile accidents.
At (ultra)high magnetic fields the artifact sensitivity of ECG recordings increases. This bears the risk of R-wave mis-registration which has been consistently reported for ECG triggered CMR at 7.0T. Realizing the constraints of conventional ECG, acoustic cardiac triggering (ACT) has been proposed. The clinical ACT has not been carefully examined yet. For this reason, this work scrutinizes the suitability, accuracy and reproducibility of ACT for CMR at 7.0T. For this purpose, the trigger reliability and trigger detection variance are examined together with an qualitative and quantitative assessment of image quality of the heart at 7.0T.
ECG is corrupted by magneto-hydrodynamic effects at higher magnetic field strength. Artifacts in the ECG trace and severe T-wave elevation might be mis-interpreted as R-waves. MHD being inherently sensitive to blood flow and blood velocity provides an alternative approach for cardiac gating, even in peripheral target areas far away from the commonly used upper torso positions of ECG electrodes. This feature would be very beneficial to address traveling time induced motion artifacts and trigger latency related issues raised by ECG-gated peripheral MR angiography. For all those reasons, this work proposes the use of MHD-trigger for cardiac gated MR.
Die Ausbildung von Biofilmen in technischen Anlagen, wie z. B. Kühlkreisläufen, Wasseraufbereitungssystemen und Bioreaktoren, führen zu Materialschäden (Biofouling) und stark erhöhtem Energieaufwand. Im Rahmen der aktuellen Forschungsarbeiten erfolgen aktive sowie passive Bio-Modifikationen auf funktionalisierten magnetischen Mikropartikelober-flächen. Um die verschiedenen funktionalisierten magnetischen Mikropartikel zu analysieren und ihre antimikrobielle Wirkung zu testen, wird der Einsatz einer 3D-gedruckten, magnetischen Plattform für ein Fluoreszenz-basiertes Screening-System untersucht. Für den Oberflächenschutz wurden verschiedene, antimikrobiell funktionalisierte Partikelkombinationen mit dem Mikroorganismus Escherichia coli GFPmut2 in Bezug auf aktiven Oberflächenschutz verglichen. Um die antimikrobielle Oberflächeneffekte von synergistischen Kombinationen unterschiedlich funktionalisierter Partikel zu bestimmen, werden Oberflächen einem Magnetfeld ausgesetzt, das die Mikropartikel als definierte Schicht auf ihnen zurück hält. Diese modifizierten Oberflächen können sowohl durch Fluoreszenzspektroskopie als auch -mikroskopie analysiert werden.
Mit der Entwicklung wässriger Tropfen, die mit einer schützenden Hülle magnetisierbarer, hydrophober Partikel umgeben sind, ergeben sich neue Möglichkeiten im Bereich der Mikrofluidik. So können die Tropfen als flüssige Mikroreaktoren eingesetzt werden. Der wässrige Kern dieser Mikroreaktoren besteht aus einer Substratlösung für enzymatische Umsetzungen. Durch Bewegen der Mikroreaktoren können diese über immobilisierten Enzymen positioniert werden, um so einen enzymatischen Umsatz innerhalb der Mikroreaktoren zu realisieren. Hierfür wurde eine neue Mikroreaktorplattform-Technologie etabliert. Die Mikroreaktoren können aufgrund ihrer magnetisierbaren Hüllenpartikel über elektromagnetische Spulen bewegt werden. Die Bewegung erfolgt dabei mit einer automatisierten Aktuatorplattform, bestehend aus einer 3x3 Doppelspulenmatrix mit Magnetkernen. Als modellhaftes Reaktionssystem wird eine Enzymkaskade eingesetzt, die sich aus einer b-Glucosidase, Glucose-Oxidase und Meerrettichperoxidase zusammensetzt. Primär untersuchte Substrate sind Fluorescein-di-b-D-glucopyranoside, und 1-(3,7-Dihydroxy-10H-phenoxazin-10-yl)-ethanon, bei deren Umsatz fluoreszierende Produkte entstehen.
In this work, we present a compact, bifunctional chip-based sensor setup that measures the temperature and electrical conductivity of water samples, including specimens from rivers and channels, aquaculture, and the Atlantic Ocean. For conductivity measurements, we utilize the impedance amplitude recorded via interdigitated electrode structures at a single triggering frequency. The results are well in line with data obtained using a calibrated reference instrument. The new setup holds for conductivity values spanning almost two orders of magnitude (river versus ocean water) without the need for equivalent circuit modelling. Temperature measurements were performed in four-point geometry with an on-chip platinum RTD (resistance temperature detector) in the temperature range between 2 °C and 40 °C, showing no hysteresis effects between warming and cooling cycles. Although the meander was not shielded against the liquid, the temperature calibration provided equivalent results to low conductive Milli-Q and highly conductive ocean water. The sensor is therefore suitable for inline and online monitoring purposes in recirculating aquaculture systems.
Enzymatic hydrolysis of lignocellulosic material plays an important role in the classical biorefinery approach. Apart from the pretreatment of the raw material, hydrolysis is the basis for the conversion of the cellulose and hemicellulose fraction into fermentable sugars. After hydrolysis, usually a solid-liquid separation takes place, in order to separate the residual plant material from the sugar-rich fraction, which can be subsequently used in a fermentation step. In order to factor out the separation step, the usage of in alginate immobilized crude cellulose fiber beads (CFBs) were evaluated. Pretreated cellulose fibers are incorporated in an alginate matrix together with the relevant enzymes. In doing so, sugars diffuse trough the alginate matrix, allowing a simplified delivery into the surrounding fluid. This again reduces product inhibition of the glucose on the enzyme catalysts. By means of standardized bead production the hydrolysis in lab scale was possible. First results show that liberation of glucose and xylose is possible, allowing a maximum total sugar yield of 75 %.
In diesem Beitrag geht es um die Integration von Stoffströmen einer Lignocellulose-Bioraffinerie in Verfahren zur Batterieherstellung. Pflanzliche Reststoffe aus der Biokraftstoffherstellung wie Lignin sollen zur Herstellung neuer Batteriematerialien verwendet werden. Hierbei wird das Lignin als Matrix für die vorgraphitischen C-haltigen Einlagerungsverbindungen in den Elektroden genutzt. Die Si-C-Komposite werden durch das Einbetten von Si in eine Ligninmatrix mit anschließender Carbonisierung hergestellt. Das Lignin hierfür wird durch die sequentielle hydrothermale Vorbehandlung von Buchenholz bei variablen Bedingungen gewonnen und mit Si-Nanopartikel sowie als Referenz ohne Si-Nanopartikel gefällt. Die Ergebnisse zeigen, dass die sequenzielle Vorbehandlung höhere Ausbeuten im Vergleich zum LHW- oder Organosolv-Aufschluss liefert. Um eine Anode herzustellen, wurde das resultierende Si–C-Kompositmaterial carbonisiert, auf einen Stromsammler aufgetragen und elektro-chemisch charakterisiert. Der Einfluss der Vorbehandlungsschritte auf den Herstellungsprozess und die ökonomische Bewertung des untersuchten Bioraffinerie-Prozesses wurde mithilfe eines Stoffstrommodells analysiert.
Die am häufigsten genutzten Rohstoffe für die Produktion von Treibstoffen und Chemikalien sind fossilen Ursprungs. Da diese limitiert sind, werden im Hinblick auf die Nachhaltigkeit alternative, erneuerbare Rohstoffquellen intensiv untersucht. Vielversprechend in diesem Kontext sind die in Lignocellulose enthaltenen Zucker, die beispielsweise zur Produktion von Ethanol genutzt werden können. In der Regel sind für eine Lig-nocellulose-Bioraffinerie mehrere Prozessschritte notwendig: Vorbehandlung, Verzuckerung und Fermentation. Um diesen Prozess einfacher zu gestalten, ist es möglich, die Verzuckerung und die Fermentation in einem Schritt durchzuführen (SSF). Als Substrat wird hier Cellulose-Faserstoff verwendet, der durch das Organosolv-Verfahren aufgeschlossen wurde. Die Hydrolyse erfolgt mit kommerziell erhältlichen Enzymen und für die Fermentation zu Ethanol werden zwei Hefen verwendet. Beim SSF-Verfahren konnte, im Vergleich zur entkoppelten Verfahrensweise, trotz bestehender Unterschiede in den Temperatur-Optima von Enzymen und Hefen eine Steigerung in der Ethanol-Ausbeute von 0,15 auf 0,2 gg⁻¹ beobachtet werden. Um wirtschaftliche Ausbeuten und Konzentrationen des Produkts erzielen zu können, ist es notwendig den Prozess weiter zu optimieren. Im Einzelfall muss überprüft werden, ob diese Verfahrensweise auch für die Produktion anderer interessanter Stoffe (wie Itaconsäure, Bernsteinsäure) geeignet ist.
b-Lactame gehören zu den wirkungsvollsten Antibiotika, jedoch lassen sich viele nur schwierig fermentativ erzeugen. Ein Problem bei der fermentativen Produktion ist die Hydrolyse des Lactamrings im wässrigen Milieu. Das Ziel des von der DBU geförderten Projekts ist die selektive In-situ-Adsorption der b-Lactamantibiotika unter anschließender magnetischer Separation. Durch die Isolation im Hochgradientenmagnetseparator (HGMS) ist eine Fest-fest-flüssig-Trennung und somit ein erheblicher Zeitgewinn im Downstreamprozess möglich. Zusätzlich kommt es zur Einsparung an Lösungsmittel und Energie, was neben Reduzierung der Antibiotikahydrolyse auch in ökologischer Hinsicht einen interessanten Aspekt darstellt. Als Trägermaterial für die Adsorbermatrix werden magnetisierbare Eisenoxidpartikel eingesetzt, die in einer Silikamatrix eingebettet sind. Diese Adsorber sollen auf Selektivität in Wasser und verschiedenen Medien getestet werden. Zusätzlich werden die Abbauprodukte des b-Lactams analysiert, um eine Aussage über die Stabilisierung des Antibiotikums durch die selektiven Adsorber treffen zu können. Diese Ergebnisse werden mit kommerziell erhältlichen Adsorbern verglichen. Die Aufreinigung der Antibiotika soll direkt aus der Fermentationsbrühe erfolgen. Um die Trennung der magnetischen, selektiven Adsorber von der Biomasse zu gewährleisten, soll der HGMS in die Fermentation integriert werden. Das filamentöse Wachstum des Mikroorganismus erfordert eine Neuauslegung der Filtermatrix.
Lignine bestehen aus einem hochgradig vernetzten Polymer phenolischer Grundeinheiten. Diese Verbindungen sind eine Quelle vielversprechender chemischer Grundbausteine. Auch die enzymatische Modifikation der Materialeigenschaften des Lignins ist für dessen Anwendung von Interesse. Aufgrund der verschiedenen Bindungstypen im Lignin ist eine Auftrennung mit nur einem Enzym unwahrscheinlich. Vielmehr sind verschiedene mediatorgestützte Reaktionen notwendig. Pilze, wie z.B. T. versicolor, nutzen Enzymkombinationen zum Aufschluss des Lignins. Hierbei kommen Laccase, Ligninperoxidase und Manganperoxidase zum Einsatz. Die optimale Kombination der Enzyme und ihrer Mediatoren bzw. Stabilisatoren ist Ziel der Untersuchungen. Aufgrund der großen Parameteranzahl wurde ein genetischer Algorithmus eingesetzt. Als Versuchsparameter wurden gewählt: die Verhältnisse der Enzyme, Ligninmasse, Konzentrationen an Eisen-, Mangan-, Oxalat-Ionen, ABTS, Violursäure und H₂O₂. Somit werden elf Parameter simultan optimiert. Als Algorithmus wurde ein Programm mit variabler Genkodierung entwickelt. Die Umsetzung des Lignins wird dabei über den verfolgt. Zurzeit ist ein enzymatischer Umsatz von 12% möglich. Als Referenz wurde eine chemische Lignindegradierung mit einem Umsatzvon 37% etabliert. Die sechs Generationen des Algorithmus zeigen eine Kongruenz der Enzymkonzentrationen von LiP, MnP und VeP, während Laccase keinen Einfluss hat. Des Weiteren beeinflussen die Konzentrationen von Mangan und Oxalat die Umsetzung, während die Variation von ABTS- und H₂O₂ nur eine geringe Auswirkung hat.
Molke fällt im Rahmen der Käseherstellung allein in Deutschland in Mengen von über 11 Mio. Tonnen jährlich an. Dieses Nebenprodukt wurde trotz seines Reichtums an Milchzucker und Proteinen lange Zeit kaum industriell weiterverarbeitet und stellte ein bedeutendes Problem bei der Abwasserreinigung dar. Derzeit kommen meist kosten- und reinigungsintensive Membranfiltrationsverfahren bei der Auftrennung von Molke in ihre Hauptkomponenten Lactose und Molkenprotein zum Einsatz. Die Produkte finden vorwiegend in der Nahrungsmittelindustrie Anwendung als Süßungsmittel, Proteinzusatz oder Texturbildner. Die Mehrheit des Proteins wird dabei als Konzentrat bzw. Proteinpulver verarbeitet. Wegen der antibakteriellen, antiviralen und weiteren wertvollen physiologischen Eigenschaften der Molkeproteine stellt eine weitere Aufreinigung der einzelnen Molkeproteine für die pharmazeutische Industrie einen naheliegenden zusätzlichen Wertschöpfungsschritt dar. In Kooperation mit der Süd Chemie AG wurde damit begonnen, ein Verfahren zu entwickeln, das kostengünstige mineralische Adsorbentien verwendet. Bisher konnte die Abtrennung von Lactose von den Molkenproteinen aus verdünntem Molkekonzentrat in einem Verfahrensschritt ohne Vorbehandlung des Rohstoffs erfolgreich realisiert werden. Aktuelle Arbeiten beschäftigen sich mit der Verbesserung der Proteinbindekapazitätund chromatographischen Proteinauftrennung sowie dem Upscaling zum direkten Einsatz von Molkekonzentrat ohne Vorverdünnung.
Molke als Nebenprodukt der Käseherstellung wurde lange Zeit als Abfall betrachtet. Bedingt durch ihren hohen BOD (biological oxygen demand) war die direkte Einleitung in Gewässer, aber auch der mikrobielle Abbau in Kläranlagen bedenklich. Falls eine Weiterverarbeitung der Molke stattfand, so geschah dies meist zu Molkepulver oder Proteinkonzentrat. Als Untersuchungen der Molkeproteine jedoch unter pharmazeutischen Gesichtspunkten interessante Eigenschaften nahelegten, stieg das Interesse am Bioprodukt Molke und ihren Proteinen an. So stehen beispielsweise für die Molkeproteine a-Lactalbumin (ala) und b-Lactoglobulin (blg) antibakterielle, anticancerogene und diverse andere physiologische Effekte in der Diskussion. Gegenwärtig finden meist Membranverfahren zur Aufreinigung von Molkeproteinen Anwendung. Als alternatives Verfahren wurde am Institut für Bioverfahrenstechnik in Kaiserslautern ein chromatographisches Verfahren entwickelt, bei dem natürliche Tonminerale zum Einsatz kamen. Nach chemischer und physikalischer Modifikation des Ausgangsmaterials durch den Hersteller Süd-Chemie wurden drei der Adsorber für nähere Untersuchungen zur Auftrennung von Molkeproteinen aus Molkekonzentrat herangezogen. Nach einer Cross-Flow-Filtration des Molkekonzentrats erfolgte die Aufreinigung der Molkeproteine in einem FPLC-System.
Die ökonomische Abhängigkeit von fossilen Brennstoffen und der klimatische Wandel durch die Nutzung dieser haben zu einer intensiven Suche nach erneuerbaren Rohstoffen für die Produktion von Chemikalien und Treibstoffen geführt. Ein viel versprechender Rohstoff in diesem Zusammenhang sind Zucker, die mittels enzymatischer Hydrolyse aus Lignocellulose gewonnen und beispielsweise zu Ethanol umgesetzt werden können. Dabei ist es notwendig die Hydrolyse in Hinsicht auf das verwendete Substrat und die Verwendung der entstehenden Hydrolysate für die Fermentation von Alkohol zu optimieren. Als Substrat dienen Cellulose- und Hemicellulose-Fraktionen, die durch thermo-chemische Vorbehandlung von Holz gewonnen werden. Die Vorbehandlung erfolgt bei unserem Projektpartner am Johann Heinrich von Thünen Institut in Hamburg. Verschiedene kommerziell erhältliche Enzyme, thermostabile eingeschlossen, wurden auf ihre Fähigkeit hin untersucht, diese Fraktionen zu den entsprechenden Zuckern umsetzen zu können. Um die Konzentration an fermentierbaren Zuckern zu steigern werden verschiedene Optimierungen durchgeführt, z. B. die Erhöhung der Substrat- bzw. Enzymkonzentrationen. Ein weiterer interessanter Ansatz, welcher ebenfalls verfolgt wird, ist es die Hydrolyse und die Fermentation in einem Schritt durchzuführen.
Biotechnologische Wertstoffgewinnung entlang der Prozessketten Grüner und Pflanzenöl-Bioraffinerien
(2014)
Der nachwachsende Rohstoff Raps ist in großen Mengen verfügbar und eine Quelle für Biomoleküle mit hohem Wertschöpfungspotenzial. Entwicklungen zur biotechnologischen Wertstoffgewinnung werden dabei schwerpunktmäßig in den Bereichen Aufarbeitung und Funktionalisierung von Polyphenolen und Fetten betrieben. Bei der Verarbeitung der Pflanzenmaterialien werden dabei insbesondere Verfahren zur adsorptiven Aufreinigung und Auftrennung mittels Materialien mit modifizierten Bleicherden und anderen organischen oder anorganischen Adsorbentien untersucht. Ferner wurden für die Aufreinigung von Polyphenolen adsorptive sowie extraktive Prozesse entwickelt. Bei den Entwicklungen wird berücksichtigt, dass Bioraffinerien auf eine fortwährende Gewährleistung eines hohen Produktions- bzw. Lieferbedarfs nachwachsender Rohstoffe angewiesen sind. Somit werden Optionen dezentraler regionaler Vorbehandlungs- und Wertschöpfungsketten in der Nähe landwirtschaftlicher Betriebe einbezogen. Neben neuen Aufreinigungsverfahren werden mikrobielle und enzymatische Prozesse zur wertsteigernden Umsetzung von Glycerin, Polyphenolen und Zuckermonomeren vorgestellt sowie Limitierungen nachwachsender Rohstoffe der 2. Generation diskutiert.
Prozessintegrierte Magnetseparation im Labormaßstab mittels High-Gradient Magnetic Separator (HGMS)
(2014)
Die Hochgradient-Magnetseparation (HGMS) stellt eine Alternative zu konventionellen Methoden der Proteinaufarbeitung wie Filtration und Chromatographie dar und dient zudem als Prozessintensivierung. Bisherige Separatoren sind für Anwendungen von mehreren Litern Prozessvolumina Fermentationsmedium und Gramm Magnetpartikel ausgelegt. Bei der Entwicklung und Anwendung neuartiger Magnetpartikeloberflächen ist die Verfügbarkeit großer Mengen nicht gegeben. Bisherige Filterkammern erhöhen zudem den Arbeitsaufwand und verursachen größere Partikelverluste bei Spülvorgängen oder der Reinigung aufgrund der Partikeladsorption. Für Anwendungen im Maßstab < 500 mL wird deshalb ein Miniatur-Hochgradientfilter (miniHGF) entwickelt. Das Modell wird im 3D-Drucker Makerbot Replicator 2 gefertigt und magne-isierbare Drähte zur Partikelabscheidung eingesetzt. Die Vergleichbarkeit mit einem etablierten Magnetseparator wird anhand der Aufnahme von Durchbruchskurven und Bestimmung der Filtereffizienz untersucht. Die Praxistauglichkeit mit kleinen Volumina wird in wiederholten Batch-Versuchen mit auf Magnetpartikeln immobilisiertem Enzym und einem kolorimetrischen Assay geprüft.
Primäre Ziele der Hydrolyse pflanzlicher nachwachsender Rohstoffe sind möglichst hohe Zuckerkonzentrationen für nachfolgende Fermentationen und eine Maximierung der Produktivität. Zur Optimierung dieser Prozesse wird Organosolv-aufgeschlossene Buchenholz-Cellulose verwendet. Die Hydrolyse des Faserstoffes erfolgt mithilfe von Novozymes CTec2-Enzymen. Die Hydrolysen konnten durch neue Rührerelemente auf einen Maßstab von 1000 L übertragen werden. Dabei konnten maximale Ausbeuten (g Glucose g –1 Glucose im Faserstoff) bis 81 g g – 1 und Konzentrationen von 152 g L –1 erreicht werden. Zurzeit können unter Einsatz eines Feststoffreaktors Cellulosefasern in einer Konzentration bis 400 g L –1 enzymatisch hydrolysiert werden. Die cellulolytischen Enzyme stoßen bei hohen Feststoffkonzentrationen an ihre Grenzen. Mit steigendem Feststoffgehalt nimmt die Hydrolyseausbeute ab. Ein Ansatz zur Steigerung der Effizienz ist der Einsatz ligninolytischer Enzyme, die Ligninreste an der Organosolv-Cellulose aufschließen können. Eine solche Verbesserung der Zugänglichkeit für cellulolytische Enzyme an ihr Substrat wurde durch Kulturüberstände verschiedener ligninolytischer Pilze erreicht. Mit Kulturüberständen von Stereum sp. sind Steigerungen der Glucoseausbeuten um bis zu 30 % möglich.
Bei der Verarbeitung nachwachsender Rohstoffe entsteht aus Cellulose oder Stärke u. a. das wichtige Produkt Glucose. Diese niedermolekulare Kohlenhydratquelle wird üblicherweise als Substrat für biotechnologische und chemische Synthesen verwendet. Ein wirtschaftlich interessantes Oxidationsprodukt der Glucose ist Gluconsäure, die beispielsweise als Lebensmittelzusatzstoff (E 574), in der Medizin und Metallindustrie Verwendung findet. Die Umsetzung des Monosaccharids zu Gluconsäure erfolgt entweder durch mikrobielle Fermentation oder der Oxidation an heterogenen Katalysatoren. Die Zielsetzung der Studie ist die Untersuchung der Glucoseoxidation an magnetisierbaren Gold-Nanopartikeln unter nachfolgender Bypass-Separation des Katalysators mittels einer neuen Mini-HGMS-Einheit (Hochgradient-Magnetseparation). Dieser Filtertyp ermöglicht die selektive Trennung magnetischer Partikel aus Suspensionen mit hohem Feststoffgehalt oder Viskosität. Erste Ergebnisse zeigen eine Beladungskapazität des selbstkonstruierten Mini-HGMS von 550 mg goldbeschichteter magnetisierbarer Nanopartikel. Die Oxidation erfolgt bei einem pH-Wertvon 9, bei 40 °C und mit 100 mM Glucose in einem begasten Rührkesselreaktor. Das System soll zukünftig zum Katalysatorrecycling von hochviskosen und Feststoffbelasteten Produktströmen aus Bioraffinerien eingesetzt werden.
Aktiver und passiver antimikrobieller Oberflächenschutz durch funktionalisierte Mikropartikel
(2014)
Mikrobielle Verunreinigungen von Oberflächen in technischen und medizinischen Systemen sind allgegenwärtig. Sie basieren üblicherweise auf adsorptiven Oberflächenbindungen organischer Komponenten (Proteine und Fette) oder Membrankomponenten aerogener sowie wassergebundener Mikroorganismen. In laufenden Forschungsarbeiten wird eine aktive sowie passive Biomodifikation von Oberflächen zu deren Schutz vor Adsorption von Proteinen und Mikroorganismen verfolgt. Der antimikrobielle Schutz soll dabei sowohl durch die Mikrostrukturierung bzw. Rauheitsanpassung der Oberflächen durch deren Beschichtung mit Mikro-und Nanopartikeln erfolgen. Ferner werden antimikrobielle Enzyme und funktionelle Gruppen auf den Mikropartikeln gebunden, um den Oberflächenschutz zu verstärken. In ersten Versuchen wurden quartäre Ammoniumverbindungen auf eigens synthetisierten superparamagnetischen Eisenoxid-Nanopartikeln (Durchmesser 10 – 30 nm) immobilisiert und die wachstumshemmende Wirkung untersucht. Erste Ergebnisse zeigten, dass eine Konzentration von 10 mg mL⁻¹ der Ammoniumverbindung in einer Wachstumshemmung des verwendeten Gram-negativen Modell-Mikroorganismus E. coli GFPmut2 resultiert. Zurzeit werden synergistisch wirkende Kombinationen von Partikeln mit Proteasen, quartären Ammoniumverbindungen, hydrophoben Oberflächen und mikrostrukturierten Oberflächen als antimikrobieller Schutz untersucht.
Cytochrom P450 sind Häm-Proteine, die zur Enzymklasse der Oxidoreduktasen (EC 1.14.xy) gehören. Eine wichtige Reaktion ist die Hydroxylierung nichtaktivierter C–H-Bindungen, die in technischen Systemen von großem Interesse ist. Durch die Verwendung von M-IDA-2-Partikeln ist eine direkte Aufreinigung mit gleichzeitiger Immobilisierung und die Applikation der Enzyme aus dem Zelllysat möglich. Damit ist das Verfahren mehr als fünf Stunden schneller als die konventionelle Chromatographie und mehr als 80 % der Aufreinigungszeit wird gespart. Mit dem isolierten nativen Enzym konnte die Plattformchemikalie 9,10-Dihydroxystearinsäure aus Ölsäure hergestellt werden. Unter anderem für die Kunststoffindustrie können aus diesem Produkt wichtige Monomere wie z. B. Azelainsäure hergestellt werden. Die Bildung des Produkts erfolgt in einem zweiphasigen Reaktionssystem an der Grenzfläche zwischen dem Öl und der wässrigen Phase als Feststoff. Um das immobilisierte Enzym aktiv in die obere Phase zu transportieren, wurde eine neue magnetische Mischvorrichtung entwickelt. Das Reaktionsprodukt wurde mit NMR, GC-MS und HPLC-MS analysiert und mit einem chemisch synthetisierten Standard von 9,10-Dihydroxystearinsäure verglichen. Derzeit werden Studien des immobilisierten Häms des Enzyms durchgeführt.
Üblicherweise werden biotechnologische Reaktionssysteme im mikrofluidischen Maßstab in vorstrukturierten Bauteilen oder mit auf Wellplatten basierenden Robotersystemen realisiert. In dem hier vorgestellten System werden chemische oder biologische Reaktionen mit magnetischen Mikroreaktoren (MR) durchgeführt, bei denen hydrophobe magnetische Mikropartikel einen wässrigen Kern umschließen. Solche MR bieten eine gute Kontrolle der Reaktionsbedingungen, eine verbesserte Sicherheit und Portabilität. Die neue Plattformtechnologie ermöglicht die zweidimensionale Bewegung der magnetischen MR auf einer planaren Ebene. Oberhalb oder unterhalb der Plattform werden Magnetfeldgradienten zum Manipulieren und Bewegen eines oder mehrerer magnetischer MR erzeugt. Die optimal auf die MR wirkenden magnetischen Kräfte werden experimentell ermittelt und simuliert. Die Aktivierung der Magnetfelder wird automatisiert durch elektrische Spulen mit Eisenkern bzw. Neodymmagnet gesteuert. Angewendet wurde das System beim reversiblen Öffnen von MR, um z. B. Reaktionspartner in den wässrigen Kern zu injizieren oder Proben zu entnehmen. Ferner wurde Lac-case A und b-Glucosidase auf einer Quarzglasoberfläche immobilisiert und mit einem MR zum Reagieren gebracht. Weiterhin wurden MR fusioniert und so ein wässriger Kern bestehend aus Laccase mit einem aus dem entsprechenden Substrat Syringaldazin vereint.
In der Biotechnologie stellt Einzelstrang-DNA (ssDNA) eine Schlüsselrolle dar und fungiert z. B. als Baustein für die nanoskalige Feinmechanik oder als Affinitätsligand, ein sog. Aptamer. Hinsichtlich der industriellen Verwendung bieten Aptamere im Vergleich zu Antikörpern viele Vorteile, wie z. B. eine gute Renaturierung bzw. die Selektion für cytotoxische Moleküle. Aktuell wächst die Nachfrage für chimäre Aptamere von bis zu 200 n, um die simultane Bindung bzw. die Modifikation mehrerer Moleküle zu realisieren. Bis heute wird ssDNA mittels einer sequentiellen Synthese hergestellt, die eine Effizienz von ca. 99,5 % je Zyklus und bereits bei einer Produktlänge von 100 n nur noc hAusbeuten von max. 60 % zeigt. Um dem Bedarf an ssDNA im Bereich > 100 n zu entsprechen, wurden zwei enzymatische Verfahren zur Produktion dieser Makronukleotide entworfen. Die erste Technik basiert auf einerFestphasen-PCR und ermöglicht sowohlein Primer- als auch ein Templatrecycling. Das zweite Verfahren beruht auf einer Plasmidbasierten In-vivo-Amplifikation, der sog. AptaGENE®-Technologie. In einer einzigen Klonierung werden bis zu 100 Kopien des Monomers in einen Vektor kloniert. Nach einer Transformation folgt der reguläre Produktionsprozess in Form einer Kultivierung, Plasmidpräparation und sequenziellen Aufarbeitung von bis zu 6 · 10¹⁵ Makronukleotiden pro Milliliter Fermentationsvolumen.
Die Nutzung von Biomasse aus pflanzlichen Abfällen für die stoffliche Verwertung rückt immer stärker in den Vordergrund. Dabei ist vor allem die ganzheitliche Verwertung der Stoffströme von Bedeutung, da diese einen integrativen Ansatz ermöglichen. Im Rahmen dieser Arbeit wird die Produktion von Einzellerproteinen (Single-Cell Proteins, SCPs) mithilfe von unterschiedlichen Rohsubstraten dargelegt. Somit können Reststoffströme, die in keiner Konkurrenz zur Produktion von Lebensmitteln stehen, für die Herstellung von Futter- und auch Nahrungsmitteln Verwendung finden. Die zunächst thermisch vorbehandelten Ausgangsmaterialien stammen aus forstwirtschaftlichen und grünen Abfällen und ermöglichen durch eine anschließende enzymatische Hydrolyse die Freisetzung von Monosacchariden. Aus diesen erfolgt die SCP-Produktion fermentativ mithilfe der drei Modellorganismen Bakterium, Hefe und Pilz. Hierfür wird sowohl das flüssige Hydrolysat als auch der feste Reststoff auf der Basis einer Feststofffermentation genutzt. Auf diese Weise ist eine vollständige Verwertung der Ausgangsmaterialien möglich. Mit den gewonnen Daten erfolgt abschließend eine Bewertung der SCPs aus nachwachsenden Rohstoffen als alternative Proteinquelle.