Refine
Year of publication
Institute
- Fachbereich Medizintechnik und Technomathematik (2087)
- Fachbereich Elektrotechnik und Informationstechnik (1190)
- Fachbereich Wirtschaftswissenschaften (1167)
- Fachbereich Energietechnik (1117)
- Fachbereich Chemie und Biotechnologie (920)
- Fachbereich Maschinenbau und Mechatronik (885)
- Fachbereich Luft- und Raumfahrttechnik (801)
- Fachbereich Bauingenieurwesen (712)
- IfB - Institut für Bioengineering (693)
- INB - Institut für Nano- und Biotechnologien (616)
Language
- German (5150)
- English (4961)
- Russian (14)
- Portuguese (6)
- Italian (5)
- Multiple languages (5)
- Spanish (3)
- Dutch (2)
Document Type
- Article (5641)
- Conference Proceeding (1683)
- Book (1087)
- Part of a Book (578)
- Bachelor Thesis (332)
- Patent (177)
- Report (102)
- Conference: Meeting Abstract (83)
- Doctoral Thesis (82)
- Administrative publication (77)
Keywords
- Amtliche Mitteilung (72)
- Bachelor (34)
- Aachen University of Applied Sciences (31)
- Master (31)
- Prüfungsordnung (31)
- Bauingenieurwesen (30)
- Lesbare Fassung (28)
- Biosensor (25)
- Fachhochschule Aachen (23)
- Illustration (23)
Zugriffsart
- campus (2155)
- weltweit (1913)
- bezahl (790)
- fachbereichsweit (FB4) (38)
Electric flight has the potential for a more sustainable and energy-saving way of aviation compared to fossil fuel aviation. The electric motor can be used as a generator inflight to regenerate energy during descent. Three different approaches to regenerating with electric propeller powertrains are proposed in this paper. The powertrain is to be set up in a wind tunnel to determine the propeller efficiency in both working modes as well as the noise emissions. Furthermore, the planned flight tests are discussed. In preparation for these tests, a yaw stability analysis is performed with the result that the aeroplane is controllable during flight and in the most critical failure case. The paper shows the potential for inflight regeneration and addresses the research gaps in the dual role of electric powertrains for propulsion and regeneration of general aviation aircraft.
This paper discusses a new way of inflight power regeneration for electric or hybrid-electric driven general aviation aircraft with one powertrain for both configurations. Three different approaches for the shift from propulsion to regeneration mode are analyzed. Numerical cal-culation and wind tunnel results are compared and show the highest regeneration potential for the "Windmill" approach, where the propeller blades are flipped, and rotation is reversed. A combination of all regeneration approaches for a realistic flight mission is discussed.
Die potenziellen Auswirkungen der Digitalisierung auf die Lehre sind seit langem Gegenstand ausführlicher Diskussionen innerhalb der Wirtschaftsinformatik (WI) (z. B. in Auth et al. 2021, Barton et al. 2019, Klotz et al. 2019). Nicht zuletzt der in nahezu allen Wirtschaftszweigen bestehende Mangel an qualifizierten Fachkräften lenkt den Diskurs auf einen verbesserten Zugang zu Bildung und gleichen Bildungschancen. Aus dieser Vision heraus und dem Schub der Digitalisierung entstehen Bildungskonzepte wie Open Educational Resources (OER), die gesellschaftlichen Problemen, wie dem des Fachkräftemangels, entgegenwirken sollen. Im Rahmen dieses Kurzbeitrags wird das Projekt WiLMo - "Wirtschaftsinformatik Lehr- und Lernmodule" vorgestellt. WiLMo wird im Rahmen von OERContent.nrw unter Beteiligung von sechs Hochschulen entwickelt und gefördert. Alle Projektbeteiligten arbeiten gemeinsam daran, einheitliche digitale Lehr- und Lernmaterialien im OER-Format für die Kernmodule der Wirtschaftsinformatik zu entwickeln und in garantiert hoher Qualität zur Verfügung zu stellen.
The development and operation of hybrid or purely electrically powered aircraft in regional air mobility is a significant challenge for the entire aviation sector. This technology is expected to lead to substantial advances in flight performance, energy efficiency, reliability, safety, noise reduction, and exhaust emissions. Nevertheless, any consumed energy results in heat or carbon dioxide emissions and limited electric energy storage capabilities suppress commercial use. Therefore, the significant challenges to achieving eco-efficient aviation are increased aircraft efficiency, the development of new energy storage technologies, and the optimization of flight operations. Two major approaches for higher eco-efficiency are identified: The first one, is to take horizontal and vertical atmospheric motion phenomena into account. Where, in particular, atmospheric waves hold exciting potential. The second one is the use of the regeneration ability of electric aircraft. The fusion of both strategies is expected to improve efficiency. The objective is to reduce energy consumption during flight while not neglecting commercial usability and convenient flight characteristics. Therefore, an optimized control problem based on a general aviation class aircraft has to be developed and validated by flight experiments. The formulated approach enables a development of detailed knowledge of the potential and limitations of optimizing flight missions, considering the capability of regeneration and atmospheric influences to increase efficiency and range.
In der wasserbaulichen Forschung werden neben klassischen Messinstrumenten zunehmend kamerabasierte Verfahren genutzt. Diese erlauben neben der Bestimmung von Fließgeschwindigkeiten auch die Detektion der freien Wasseroberfläche oder zeitliche Vermessung von Kolken. Durch die hohen räumlichen und zeitlichen Auflösungen, welche neueste Kamerasensoren liefern, können neue Erkenntnisse in turbulenten, komplexen Strömungen gewonnen werden. Auch in der Praxis können diese Verfahren mit geringem Aufwand wichtige Daten liefern.
Reducing poverty, protecting the planet, and improving life on earth for everyone are the essential goals of the "2030 Agenda for Sustainable Development"committed by the United Nations (UN). Achieving those goals will require technological innovation as well as their implementation in almost all areas of our business and day-to-day life. This paper proposes a high-level framework that collects and structures different uses cases addressing the goals defined by the UN. Hence, it contributes to the discussion by proposing technical innovations that can be used to achieve those goals. As an example, the goal "Climate Actionïs discussed in detail by describing use cases related to tackling biodiversity loss in order to conservate ecosystems.
The management of knowledge in organizations considers both established long-term processes and cooperation in agile project teams. Since knowledge can be both tacit and explicit, its transfer from the individual to the organizational knowledge base poses a challenge in organizations. This challenge increases when the fluctuation of knowledge carriers is exceptionally high. Especially in large projects in which external consultants are involved, there is a risk that critical, company-relevant knowledge generated in the project will leave the company with the external knowledge carrier and thus be lost. In this paper, we show the advantages of an early warning system for knowledge management to avoid this loss. In particular, the potential of visual analytics in the context of knowledge management systems is presented and discussed. We present a project for the development of a business-critical software system and discuss the first implementations and results.
Open Data impliziert die freie Zugänglichkeit, Verfügbarkeit und Wiederverwendbarkeit von Datensätzen. Obwohl hochwertige Datensätze öffentlich verfügbar sind, ist der Zugang zu diesen und die Transparenz über die Formate nicht immer gegeben. Dies mindert die optimale Nutzung des Potenzials zur Wertschöpfung, trotz der vorherrschenden Einigkeit über ihre Chancen. Denn Open Data ermöglicht das Vorantreiben von Compliance-Themen wie Transparenz und Rechenschaftspflicht bis hin zur Förderung von Innovationen. Die Nutzung von Open Data erfordert Mut und eine gemeinsame Anstrengung verschiedener Akteure und Branchen. Im Rahmen des vorliegenden Beitrags werden auf Grundlage des Design Science-Ansatzes eine Open Data Capability Map sowie darauf aufbauend eine Datenarchitektur für Open Data in der Luftfahrtindustrie an einem Beispiel entwickelt.
The low-pressure system Bernd involved extreme rainfalls in the Western part of Germany in July 2021,
resulting in major floods, severe damages and a tremendous number of casualties. Such extreme events
are rare and full flood protection can never be ensured with reasonable financial means. But still, this
event must be starting point to reconsider current design concepts. This article aims at sharing some
thoughts on potential hazards, the selection of return periods and remaining risk with the focus on Germany.
We present new numerical results for shape optimization problems of interior Neumann eigenvalues. This field is not well understood from a theoretical standpoint. The existence of shape maximizers is not proven beyond the first two eigenvalues, so we study the problem numerically. We describe a method to compute the eigenvalues for a given shape that combines the boundary element method with an algorithm for nonlinear eigenvalues. As numerical optimization requires many such evaluations, we put a focus on the efficiency of the method and the implemented routine. The method is well suited for parallelization. Using the resulting fast routines and a specialized parametrization of the shapes, we found improved maxima for several eigenvalues.
The method of fundamental solutions is applied to the approximate computation of interior transmission eigenvalues for a special class of inhomogeneous media in two dimensions. We give a short approximation analysis accompanied with numerical results that clearly prove practical convenience of our alternative approach.
Mathematical morphology is a part of image processing that has proven to be fruitful for numerous applications. Two main operations in mathematical morphology are dilation and erosion. These are based on the construction of a supremum or infimum with respect to an order over the tonal range in a certain section of the image. The tonal ordering can easily be realised in grey-scale morphology, and some morphological methods have been proposed for colour morphology. However, all of these have certain limitations.
In this paper we present a novel approach to colour morphology extending upon previous work in the field based on the Loewner order. We propose to consider an approximation of the supremum by means of a log-sum exponentiation introduced by Maslov. We apply this to the embedding of an RGB image in a field of symmetric 2x2 matrices. In this way we obtain nearly isotropic matrices representing colours and the structural advantage of transitivity. In numerical experiments we highlight some remarkable properties of the proposed approach.
Direct sampling method via Landweber iteration for an absorbing scatterer with a conductive boundary
(2024)
In this paper, we consider the inverse shape problem of recovering isotropic scatterers with a conductive boundary condition. Here, we assume that the measured far-field data is known at a fixed wave number. Motivated by recent work, we study a new direct sampling indicator based on the Landweber iteration and the factorization method. Therefore, we prove the connection between these reconstruction methods. The method studied here falls under the category of qualitative reconstruction methods where an imaging function is used to recover the absorbing scatterer. We prove stability of our new imaging function as well as derive a discrepancy principle for recovering the regularization parameter. The theoretical results are verified with numerical examples to show how the reconstruction performs by the new Landweber direct sampling method.
We consider the numerical approximation of second-order semi-linear parabolic stochastic partial differential equations interpreted in the mild sense which we solve on general two-dimensional domains with a C² boundary with homogeneous Dirichlet boundary conditions. The equations are driven by Gaussian additive noise, and several Lipschitz-like conditions are imposed on the nonlinear function. We discretize in space with a spectral Galerkin method and in time using an explicit Euler-like scheme. For irregular shapes, the necessary Dirichlet eigenvalues and eigenfunctions are obtained from a boundary integral equation method. This yields a nonlinear eigenvalue problem, which is discretized using a boundary element collocation method and is solved with the Beyn contour integral algorithm. We present an error analysis as well as numerical results on an exemplary asymmetric shape, and point out limitations of the approach.
Analysis and computation of the transmission eigenvalues with a conductive boundary condition
(2022)
We provide a new analytical and computational study of the transmission eigenvalues with a conductive boundary condition. These eigenvalues are derived from the scalar inverse scattering problem for an inhomogeneous material with a conductive boundary condition. The goal is to study how these eigenvalues depend on the material parameters in order to estimate the refractive index. The analytical questions we study are: deriving Faber–Krahn type lower bounds, the discreteness and limiting behavior of the transmission eigenvalues as the conductivity tends to infinity for a sign changing contrast. We also provide a numerical study of a new boundary integral equation for computing the eigenvalues. Lastly, using the limiting behavior we will numerically estimate the refractive index from the eigenvalues provided the conductivity is sufficiently large but unknown.
Fields of asymmetric tensors play an important role in many applications such as medical imaging (diffusion tensor magnetic resonance imaging), physics, and civil engineering (for example Cauchy-Green-deformation tensor, strain tensor with local rotations, etc.). However, such asymmetric tensors are usually symmetrized and then further processed. Using this procedure results in a loss of information. A new method for the processing of asymmetric tensor fields is proposed restricting our attention to tensors of second-order given by a 2x2 array or matrix with real entries. This is achieved by a transformation resulting in Hermitian matrices that have an eigendecomposition similar to symmetric matrices. With this new idea numerical results for real-world data arising from a deformation of an object by external forces are given. It is shown that the asymmetric part indeed contains valuable information.
An alternative method is presented to numerically compute interior elastic transmission eigenvalues for various domains in two dimensions. This is achieved by discretizing the resulting system of boundary integral equations in combination with a nonlinear eigenvalue solver. Numerical results are given to show that this new approach can provide better results than the finite element method when dealing with general domains.
The hot spots conjecture is only known to be true for special geometries. This paper shows numerically that the hot spots conjecture can fail to be true for easy to construct bounded domains with one hole. The underlying eigenvalue problem for the Laplace equation with Neumann boundary condition is solved with boundary integral equations yielding a non-linear eigenvalue problem. Its discretization via the boundary element collocation method in combination with the algorithm by Beyn yields highly accurate results both for the first non-zero eigenvalue and its corresponding eigenfunction which is due to superconvergence. Additionally, it can be shown numerically that the ratio between the maximal/minimal value inside the domain and its maximal/minimal value on the boundary can be larger than 1 + 10− 3. Finally, numerical examples for easy to construct domains with up to five holes are provided which fail the hot spots conjecture as well.
There is a very large number of very important situations which can be modeled with nonlinear parabolic partial differential equations (PDEs) in several dimensions. In general, these PDEs can be solved by discretizing in the spatial variables and transforming them into huge systems of ordinary differential equations (ODEs), which are very stiff. Therefore, standard explicit methods require a large number of iterations to solve stiff problems. But implicit schemes are computationally very expensive when solving huge systems of nonlinear ODEs. Several families of Extrapolated Stabilized Explicit Runge-Kutta schemes (ESERK) with different order of accuracy (3 to 6) are derived and analyzed in this work. They are explicit methods, with stability regions extended, along the negative real semi-axis, quadratically with respect to the number of stages s, hence they can be considered to solve stiff problems much faster than traditional explicit schemes. Additionally, they allow the adaptation of the step length easily with a very small cost.
Two new families of ESERK schemes (ESERK3 and ESERK6) are derived, and analyzed, in this work. Each family has more than 50 new schemes, with up to 84.000 stages in the case of ESERK6. For the first time, we also parallelized all these new variable step length and variable number of stages algorithms (ESERK3, ESERK4, ESERK5, and ESERK6). These parallelized strategies allow to decrease times significantly, as it is discussed and also shown numerically in two problems. Thus, the new codes provide very good results compared to other well-known ODE solvers. Finally, a new strategy is proposed to increase the efficiency of these schemes, and it is discussed the idea of combining ESERK families in one code, because typically, stiff problems have different zones and according to them and the requested tolerance the optimum order of convergence is different.
Interior transmission eigenvalue problems for the Helmholtz equation play an important role in inverse wave scattering. Some distribution properties of those eigenvalues in the complex plane are reviewed. Further, a new scattering model for the interior transmission eigenvalue problem with mixed boundary conditions is described and an efficient algorithm for computing the interior transmission eigenvalues is proposed. Finally, extensive numerical results for a variety of two-dimensional scatterers are presented to show the validity of the proposed scheme.
A second-order L-stable exponential time-differencing (ETD) method is developed by combining an ETD scheme with approximating the matrix exponentials by rational functions having real distinct poles (RDP), together with a dimensional splitting integrating factor technique. A variety of non-linear reaction-diffusion equations in two and three dimensions with either Dirichlet, Neumann, or periodic boundary conditions are solved with this scheme and shown to outperform a variety of other second-order implicit-explicit schemes. An additional performance boost is gained through further use of basic parallelization techniques.
In this article, a concept of implicit methods for scalar conservation laws in one or more spatial dimensions allowing also for source terms of various types is presented. This material is a significant extension of previous work of the first author (Breuß SIAM J. Numer. Anal. 43(3), 970–986 2005). Implicit notions are developed that are centered around a monotonicity criterion. We demonstrate a connection between a numerical scheme and a discrete entropy inequality, which is based on a classical approach by Crandall and Majda. Additionally, three implicit methods are investigated using the developed notions. Next, we conduct a convergence proof which is not based on a classical compactness argument. Finally, the theoretical results are confirmed by various numerical tests.
The inverse scattering problem for a conductive boundary condition and transmission eigenvalues
(2018)
In this paper, we consider the inverse scattering problem associated with an inhomogeneous media with a conductive boundary. In particular, we are interested in two problems that arise from this inverse problem: the inverse conductivity problem and the corresponding interior transmission eigenvalue problem. The inverse conductivity problem is to recover the conductive boundary parameter from the measured scattering data. We prove that the measured scatted data uniquely determine the conductivity parameter as well as describe a direct algorithm to recover the conductivity. The interior transmission eigenvalue problem is an eigenvalue problem associated with the inverse scattering of such materials. We investigate the convergence of the eigenvalues as the conductivity parameter tends to zero as well as prove existence and discreteness for the case of an absorbing media. Lastly, several numerical and analytical results support the theory and we show that the inside–outside duality method can be used to reconstruct the interior conductive eigenvalues.
The aim of the current study was to investigate the performance of integrated RF
transmit arrays with high channel count consisting of meander microstrip antennas
for body imaging at 7 T and to optimize the position and number of transmit ele-
ments. RF simulations using multiring antenna arrays placed behind the bore liner
were performed for realistic exposure conditions for body imaging. Simulations were
performed for arrays with as few as eight elements and for arrays with high channel
counts of up to 48 elements. The B1+ field was evaluated regarding the degrees of
freedom for RF shimming in the abdomen. Worst-case specific absorption rate
(SARwc ), SAR overestimation in the matrix compression, the number of virtual obser-
vation points (VOPs) and SAR efficiency were evaluated. Constrained RF shimming
was performed in differently oriented regions of interest in the body, and the devia-
tion from a target B1+ field was evaluated. Results show that integrated multiring
arrays are able to generate homogeneous B1+ field distributions for large FOVs, espe-
cially for coronal/sagittal slices, and thus enable body imaging at 7 T with a clinical
workflow; however, a low duty cycle or a high SAR is required to achieve homoge-
neous B1+ distributions and to exploit the full potential. In conclusion, integrated
arrays allow for high element counts that have high degrees of freedom for the pulse
optimization but also produce high SARwc , which reduces the SAR accuracy in the
VOP compression for low-SAR protocols, leading to a potential reduction in array
performance. Smaller SAR overestimations can increase SAR accuracy, but lead to a
high number of VOPs, which increases the computational cost for VOP evaluation
and makes online SAR monitoring or pulse optimization challenging. Arrays with
interleaved rings showed the best results in the study.
Wie kann man das Thema Forschungsdatenmanagement (FDM) konkret und anwendbar für Forschende gestalten, die bisher noch wenig Kontakt damit hatten? Auf diese Frage gibt das Konzept „30 Minuten FDM für HAW. Ein Informationsformat für Forschende an HAW in NRW“ eine Antwort. Es entstand als Projektarbeit im Zertifikatskurs Forschungsdatenmanagement 2023/24
Ingenieurwissenschaften im Fokus: Zugänge zu einem effektiven Forschungsdatenmanagement an HAW
(2024)
Im Rahmen der Love Data Week vom 12. bis 16.02.2024 haben die BMBF-Projekte FDM2_TH_Koeln der TH Köln (FK 16FDFH105) und Persist@HAW der FH Aachen (FK 16FDFH129) am 15.02.2024 gemeinsam eine Online-Veranstaltung mit dem Titel „Ingenieurwissenschaften im Fokus: Zugänge zu einem effektiven Forschungsdatenmanagement an HAW“ angeboten. Diese richtete sich an Forschende aus den Ingenieurwissenschaften, die einen ersten Zugang zum Thema Forschungsdatenmanagement (FDM) suchen und erfahren möchten, welche speziellen Angebote für die Daten aus den Ingenieurwissenschaften existieren.
In der Veranstaltung wurden wesentliche Aspekte des Forschungsdatenmanagements entlang des Datenlebenszyklus beleuchtet. Ziel war es, den Teilnehmenden praxisnahe Einblicke und Hilfestellungen zu einem effektiven Umgang mit Forschungsdaten an Hochschulen für Angewandte Wissenschaften (HAW) zu bieten. Durch Beispiele und konkrete Empfehlungen wurde das Thema zugänglich gemacht.
Um die Forschungsdatenmanagement-Plattform Coscine optimal für Forschungsprojekte nutzen zu können, ist es sinnvoll, einige Fragen im Vorhinein zu klären. So können aufwendige Änderungen der Datenverwaltung im Nachhinein vermieden werden. Hierzu bietet die Handreichung hilfreiche Leitfragen und Erläuterungen für Forschende und FDM-Service-Personal an HAW in NRW (DH.NRW-Hochschulen).
FDM-Service-Mitarbeitende können die Handreichung in ihrer Beratung zu Coscine einsetzen und mit der Eingabemaske in der Kopfzeile des Dokuments auf ihre Hochschule anpassen.
Welche Vorteile bietet die Forschungsdatenmanagement-Plattform Coscine für die Verwaltung von Daten in Forschungsprojekten? Hierzu gibt die Handreichung einen schnellen Überblick über den landesgeförderten Dienst Coscine für Forschende und FDM-Service-Personal an HAW in NRW (DH.NRW-Hochschulen).
FDM-Service-Mitarbeitende können die Handreichung in ihrer Beratung zu Coscine einsetzen und mit der Eingabemaske in der Kopfzeile des Dokuments auf ihre Hochschule anpassen.
After a brief introduction of conventional laboratory structures, this work focuses on an innovative and universal approach for a setup of a training laboratory for electric machines and drive systems. The novel approach employs a central 48 V DC bus, which forms the backbone of the structure. Several sets of DC machine, asynchronous machine and synchronous machine are connected to this bus. The advantages of the novel system structure are manifold, both from a didactic and a technical point of view: Student groups can work on their own performance level in a highly parallelized and at the same time individualized way. Additional training setups (similar or different) can easily be added. Only the total power dissipation has to be provided, i.e. the DC bus balances the power flow between the student groups. Comparative results of course evaluations of several cohorts of students are shown.
The Inverted Rotary Pendulum: Facilitating Practical Teaching in Advanced Control Engineering
(2024)
This paper outlines a practical approach to teach control engineering principles, with an inverted rotary pendulum, serving as an illustrative example. It shows how the pendulum is embedded in an advanced course of control engineering. This approach is incorporated into a flipped-classroom concept, as well as classical teaching concepts, offering students practical experience in control engineering. In addition, the design of the pendulum is shown, using a Raspberry Pi as the target platform for Matlab Simulink. This pendulum can be used in the classroom to evaluate the controller design mentioned above. It is analysed if the use of the pendulum generates a deeper understanding of the learning contents.
This paper serves as an introduction to the ECTS monitoring system and its potential applications in higher education. It also emphasizes the potential for ECTS monitoring to become a proactive system, supporting students by predicting academic success and identifying groups of potential dropouts for tailored support services. The use of the nearest neighbor analysis is suggested for improving data analysis and prediction accuracy.
Das Diskussionspapier beschreibt einen Prozess an der FH Aachen zur Entwicklung und Implementierung eines Self-Assessment-Tools für Studiengänge. Dieser Prozess zielte darauf ab, die Relevanz der Themen Digitalisierung, Internationalisierung und Nachhaltigkeit in Studiengängen zu stärken. Durch Workshops und kollaborative Entwicklung mit Studiendekan:innen entstand ein Fragebogen, der zur Reflexion und strategischen Weiterentwicklung der Studiengänge dient.
Im Verfahren gegen die Österreichische Post AG (Rs. C-300/21) befasste sich der EuGH erstmals mit dem in Art. 82 DS-GVO geregelten datenschutzrechtlichen Schadensersatzanspruch. Mit den Klarstellungen des EuGH verschieben sich die Probleme nun stärker zu den „klassischen“ Fragen des Schadensersatzrechts im Zivilprozess. Relevant sind dabei vor allem Aspekte der Darlegungs- und Beweislast und deren Besonderheiten mit Blick auf den Ersatz immaterieller Schäden. Der Beitrag fokussiert sich auf die Voraussetzungen und den dabei zu führenden Tatsachenbeweis bei der Klage des Betroffenen gegen den Verantwortlichen auf Ersatz immaterieller Schäden.
Kartellrecht vs. Datenschutzrecht: Rechtsgrundlagen für die Datenverarbeitung in sozialen Netzwerken
(2023)
Bald eine Dekade ist es her, dass diese annähernd mantraartig wiederholte Phrase Unternehmen zur Umsetzung datenschutzrechtlicher Vorgaben incentivierte. Was ist davon geblieben? Nur wenige in Deutschland verhängte Bußgelder erreichten Millionenhöhe. Hintergrund ist (auch) das deutsche Ordnungswidrigkeitenrecht, welches in einem Spannungsverhältnis zu den Vorgaben der DS-GVO steht. Ein Bußgeldbescheid der Berliner Datenschutzaufsicht gegen die Deutsche Wohnen sollte Auslöser eines langen, fortdauernden Rechtsstreits werden. Auf Vorlage des KG hatte der EuGH in der Rechtssache C-807/21 („Deutsche Wohnen“) erstmals Gelegenheit, sich zur Frage der Bußgeldhaftung zu positionieren.
Seit Ende 2022 prägt das Schlagwort „Künstliche Intelligenz“ (KI) nicht nur den rechtswissenschaftlichen Diskurs. Die allgemeine Verfügbarkeit von generativen KI-Modellen, allen voran die großen Sprachmodelle (Large Language Models, kurz: LLM) wie ChatGPT von OpenAI oder Bing AI von Microsoft, erfreuen sich größter Beliebtheit: LLM sind in der Lage, auf Grundlage statistischer Methoden – eine entsprechende Schnittstelle (Interface) vorausgesetzt – auch technisch wenig versierten Nutzern verständliche Antworten auf ihre Fragen zu liefern. Dabei werden nicht nur umfassend Nutzerdaten verarbeitet, sondern auch auf weitere personenbezogene Daten zugegriffen sowie neue Daten erzeugt. Der Beitrag geht der Frage nach, welche spezifischen datenschutzrechtlichen Herausforderungen sich für Unternehmen beim Einsatz solcher LLM stellen.
Das Thema Datenschutz wurde bei der öffentlichen Auftragsvergabe bislang vor allem in Bezug auf Drittlandtransfers personenbezogener Daten in die USA diskutiert. Jedoch spielt der Datenschutz für das Vergabeverfahren und für die Ausführung datenschutzrelevanter Leistungen generell eine wesentliche Rolle. Gleichwohl herrschen bislang unter öffentlichen Auftraggebern Schwierigkeiten, datenschutzrechtlich relevante Fallkonstellationen zu erkennen, die möglichen Risiken daraus abzuleiten und, sofern dies gelingt, diesen Risiken angemessen zu begegnen. Der vorliegende Beitrag befasst sich mit der datenschutzrechtlichen Verantwortlichkeit, ihren Folgen und den daraus resultierenden Konsequenzen für die Gestaltung von Vergabeverfahren und Vergabeunterlagen.
Depressed Furniture ist eine abstrakte Übersetzung von Depressionen in Möblierung. Es handelt sich um eine Rauminstallation von fünf Leuchten, die der Erkrankung in einem unüblichen Kontext eine Plattform gibt. Dadurch stellt das Projekt eine Schnittstelle zwischen Kunst, Design und Gesellschaft dar. Jede Leuchte verkörpert eine Empfindung, mit der sich ein Großteil der Betroffenen identifizieren kann. Es wird Bewusstsein für die Komplexität der Krankheit geschaffen und das Tabu um mentale Krankheiten gebrochen. Neben der Regular Collection können auch Tischvarianten (Compact Collection) erworben werden. Depressed Furniture zeigt, dass es durchaus möglich ist, eine unschöne Thematik zu abstrahieren und ihr neutral zu begegnen. Es verdeutlicht, wie Design dazu beitragen kann, sensible Themen auf kreative Weise zu kommunizieren.
Zookunft: Zoo der Zukunft
(2024)
Inmitten globaler Natur- und Artenschutzherausforderungen ist die Transformation zoologischer Einrichtungen entscheidend. "Zookunft" präsentiert ein innovatives Konzept für ein Tropenhaus im Kölner Zoo, das Natur und Augmented Reality einzigartig verknüpft. Ziel ist ein Raumkonzept, welches den Besucher:innen ein tiefes Verständnis für die Fauna und Flora des südostasiatischen Regenwaldes vermitteln soll. Durch die geschickte Integration von Augmented Reality entsteht eine innovative Lern- und Erlebniswelt, die Umweltschutz- und Artenschutzbemühungen unterstützt und nachhaltige Bildung fördert. Besuchende tauchen aktiv in die faszinierende Welt des Regenwaldes ein, wenn Natur und Augmented Reality eine immersive Umgebung schaffen. "Zookunft" soll als Vorreiter für Zooumgestaltungen dienen, Mensch und Natur verbinden und nachhaltige Bildung fördern. Ein Raum, der Naturerlebnisse und Technologie beeindruckend kombiniert.
ARCHER : become the Arrow
(2024)
„Archer“ ist ein Redesign des Freischwingers. Ein klassischer Freischwinger ist ein aus Rohr gebogener Stuhl ohne Hinterbeine. Das Konzept des Freischwingers macht sich die Elastizität des Stahlrohrs zunutze, um einen schwingenden Sitz zu produzieren. An dieses Konzept knüpft „Archer“ herstellungstechnisch an, ergänzt jedoch ein paar Features. Der erste „USP“ ist die Rückenlehne, welche aus Nylonschnur gewoben ist. Die Lehne rahmt mehrdimensional eine Sattelfläche ein, die sich überraschend ergonomisch dem Rücken anpasst. Sie wächst aus den Armlehnen von vorne hinter dem Rücken zusammen. Eine weitere Neuheit sind die Hinterbeine des Stuhls. Der Schwung soll nicht weg, sondern hin zu dem, was was vor den Nutzenden liegt. In Kombination mit der Lehne, die aus den Armlehnen wächst und hinter dem Rücken schließt, ist das Gewicht über den Beinen gut ausbalanciert. In seinem Aufbau vereint Er ein reduziertes klares Stahlgestell mit dramatisch gewobener Schnur. Die zwei sichtbaren Materialien im Spiel miteinander werden optisch nur noch ergänzt von einem aus Kupfer, Messing oder Edelstahl gedrehten Stopfen mit konischem InLay. Der völlig eigene Aufbau mit Hinterbeinen und Armlehnen erlaubt federleichtes Schwingen, einfaches Aufstehen, neutralisiert Nervosität und fängt den Nutzer / die Nutzerin sanft auf. Die ineinander verwobenen Schnüre teilen das Gewicht gleichmäßig unter sich auf. Industrielle Herstellungsmethoden in Kombination mit Handarbeit machen diesen Stuhl zu etwas besonderem und da dem Konzept farblich kein Ende gesetzt ist, hat jeder Stuhl das Potenzial, zu einem unverkennbaren Einzelstück zu werden.
KALLE ist ein mitwachsender Kindertisch, dessen Besonderheit, neben der Höhenverstellung, in der Vergrößerung der Tischplatte liegt. Hierdurch kann KALLE optimal an das Wachstum der Kinder und die sich ändernden Anforderungen angepasst werden.
Es ist ein Möbelstück, das die Entwicklung der Kinder begleitet und fördert.
Im Gebrauch bezieht sich die Förderung besonders auf die kognitive Entwicklung, die Kreativität und das Sozialverhalten. Darüber hinaus sollen die Kinder mit KALLE aber auch den Umgang mit langlebigen Produkten erlernen, damit sie ein Verständnis für Nachhaltigkeit und ein umweltbewusstes Konsumverhalten entwickeln.
Seegras wird als „Rohstoff der Zukunft“ betitelt, da es helfen könnte, eine Reihe von globalen Problemen zu bekämpfen. Viele der erhofften Innovationen sind heute aber noch hypothetisch. Außerdem ist das Thema in der westlichen Welt trotz der Neigung zum Klimaschutz kaum bekannt. Die Idee von „Land Rover Symbiosis“ ist ein nachhaltiges Tourismuskonzept, das Forschung und Erlebnisreisen miteinander verknüpft. Auf einer 70m Katamaran Superyacht ist Platz für Forschungszwecke auf der einen und Raum für Expeditionsurlaub auf der anderen Seite. So entsteht ein Verhältnis an Bord, bei dem beide Parteien voneinander profitieren: Wissenschaftler:innen erhalten finanzielle Unterstützung und Kund:innen haben ein klimaneutrales Urlaubserlebnis, bei dem sie hautnah die Vorzüge und Potenziale von Seegras kennenlernen.
Incontrare, was übersetzt Begegnung bedeutet, ist ein Konferenztischkonzept, der durch seinen modularen
Aufbau heraus sticht. Dem Kunden ist es möglich das Produkt mit einem einzigen Werkzeug - fünfer Imbusschlüssel - aufzubauen. Der modulare Aufbau bietet die Möglichkeit kundenorientiert ein Produkt zusammensetzen zu können. Incontrare bietet hierdurch eine Vielzahl an Variationen, die nicht nur die gestalterischen Aspekte anspricht, sondern auch verschiedene Preisklassen abdeckt. Incontrare ist ein Tischkonzept, das sowohl im niederpreisigen , sowie auch im HighEnd Bereich funktioniert.
Klavierspielende Künstlerinnen und Künstler finden sich auf der Bühne meist an einer Kombination aus Keyboard und Keyboardständer wieder. Zwar kann der Klang eines Klaviers technisch brillant simuliert werden, jedoch verliert das Bühnenbild den Mehrwert eines traditionellen Klaviers. Um diesem Verlust von Authentizität und Wohlgefühl auf der Bühne endlich etwas entgegenzusetzen, soll ein "dupiano" gängige Keyboardständer ersetzen und sämtliche Keyboards in das Erscheinungsbild eines akustischen Klaviers hüllen. Dadurch sollen auch die visuellen Eindrücke, verknüpft mit den akustischen, an Authentizität gewinnen und den Klavierauftritt vervollständigen. Es ist leicht, stabil und ohne Werkzeug in unter 10 Sekunden aufbaubar. Auch der Abbau geschieht in unter 10 Sekunden. Verstaut werden kann es von einer Person in jedem Kofferraum. "dupiano" - was nach Klavier klingt, soll auch so aussehen!
In der Abschlussarbeit „FILOS“ wurde in Zusammenarbeit mit dem Fraunhofer-Institut für Lasertechnik (ILT) ein Front-End für das laserbasierte Osteotom STELLA entwickelt. STELLA soll Kraniotomie (das Eröffnen des Schädels) im wachen Zustand ermöglichen und erfordert eine benutzerfreundliche Bedienungsplattform sowie ein funktionales und ästhetisches Design. Das Ziel von „FILOS“ war es, ein Gehäuse zu entwerfen, das den medizinischen Anforderungen entspricht, und ein Bedienkonzept zu entwickeln, dass die Akzeptanz bei Patient:innen und Anwender:innen fördert. Durch Expert:innen-Interviews mit Neurochirurg:innen und enge Zusammenarbeit mit dem ILT wurde ein durchdachtes Design entwickelt. Dieses soll den Anforderungen der Anwender:innen gerecht werden, das zukünftige Operationssystem repräsentieren und somit einen Mehrwert in der Medizin schaffen.
4CH TX/RX Surface Coil for 7T: Design, Optimization and Application for Cardiac Function Imaging
(2010)
Practical impediments of ultra high field cardiovascular MR (CVMR) can be catalogued in exacerbated magnetic field and radio frequency (RF) inhomogeneities, susceptibility and off-resonance effects, conductive and dielectric effects in tissue, and RF power deposition constraints, which all bear the potential to spoil the benefit of CVMR at 7T. Therefore, a four element cardiac transceive surface coil array was developed. Cardiac imaging provided clinically acceptable signal homogeneity with an excellent blood myocardium contrast. Subtle anatomic structures, such as pericardium, mitral and tricuspid valves and their apparatus, papillary muscles, and trabecles were accurately delineated.
As high-field cardiac MRI (CMR) becomes more widespread the propensity of ECG to distortions and mistriggering increases and with it the motivation for a cardiac triggering alternative. Hence, this study explores the suitability of acoustic cardiac triggering (ACT) for left ventricular (LV) function assessment in healthy subjects at 1.5T and 3.0T.
High Spatial Resolution 3D MRI of the Larynx Using a Dedicated TX/RX Phased Array Coil at 7.0T
(2010)
MRI holds great potential for elucidating laryngeal and vocal fold anatomy together with the assessment of physiological processes associated in human phonation. However, MRI of human phonation remains very challenging due to the small size of the targeted structures, interfering signal from fat, air between the vocal folds and surrounding muscles and physiological motion. These anatomical/physiological constraints translate into stringent technical requirements in balancing, scan time, image contrast, immunity to physiological motion, temporal resolution and spatial resolution. Motivated by these challenges and limitations this study is aiming at translating the sensitivity gain at ultra-high magnetic fields for enhanced high spatial resolution 3D imaging of the larynx and vocal tract. To approach this goal a dedicated two channel TX/RX larynx coil is being proposed.
The magnetic forces of fringe magnetic fields of MR systems on ferromagnetic components can impose a severe patient, occupational health and safety hazard. MRI accidents are listed as number 9 of the top 10 risks in modern medicine. With the advent of ultrahigh field MR systems including passively shielded magnet versions, this risk, commonly known as the missile or projectile effect is even more pronounced. A strategy employing magnetic field sensors which can be attached to ferromagnetic objects that are commonly used in a clinical environment is conceptually appealing for the pursuit of reducing the risk of ferromagnetic projectile accidents.
At (ultra)high magnetic fields the artifact sensitivity of ECG recordings increases. This bears the risk of R-wave mis-registration which has been consistently reported for ECG triggered CMR at 7.0T. Realizing the constraints of conventional ECG, acoustic cardiac triggering (ACT) has been proposed. The clinical ACT has not been carefully examined yet. For this reason, this work scrutinizes the suitability, accuracy and reproducibility of ACT for CMR at 7.0T. For this purpose, the trigger reliability and trigger detection variance are examined together with an qualitative and quantitative assessment of image quality of the heart at 7.0T.
ECG is corrupted by magneto-hydrodynamic effects at higher magnetic field strength. Artifacts in the ECG trace and severe T-wave elevation might be mis-interpreted as R-waves. MHD being inherently sensitive to blood flow and blood velocity provides an alternative approach for cardiac gating, even in peripheral target areas far away from the commonly used upper torso positions of ECG electrodes. This feature would be very beneficial to address traveling time induced motion artifacts and trigger latency related issues raised by ECG-gated peripheral MR angiography. For all those reasons, this work proposes the use of MHD-trigger for cardiac gated MR.
Die Ausbildung von Biofilmen in technischen Anlagen, wie z. B. Kühlkreisläufen, Wasseraufbereitungssystemen und Bioreaktoren, führen zu Materialschäden (Biofouling) und stark erhöhtem Energieaufwand. Im Rahmen der aktuellen Forschungsarbeiten erfolgen aktive sowie passive Bio-Modifikationen auf funktionalisierten magnetischen Mikropartikelober-flächen. Um die verschiedenen funktionalisierten magnetischen Mikropartikel zu analysieren und ihre antimikrobielle Wirkung zu testen, wird der Einsatz einer 3D-gedruckten, magnetischen Plattform für ein Fluoreszenz-basiertes Screening-System untersucht. Für den Oberflächenschutz wurden verschiedene, antimikrobiell funktionalisierte Partikelkombinationen mit dem Mikroorganismus Escherichia coli GFPmut2 in Bezug auf aktiven Oberflächenschutz verglichen. Um die antimikrobielle Oberflächeneffekte von synergistischen Kombinationen unterschiedlich funktionalisierter Partikel zu bestimmen, werden Oberflächen einem Magnetfeld ausgesetzt, das die Mikropartikel als definierte Schicht auf ihnen zurück hält. Diese modifizierten Oberflächen können sowohl durch Fluoreszenzspektroskopie als auch -mikroskopie analysiert werden.
Mit der Entwicklung wässriger Tropfen, die mit einer schützenden Hülle magnetisierbarer, hydrophober Partikel umgeben sind, ergeben sich neue Möglichkeiten im Bereich der Mikrofluidik. So können die Tropfen als flüssige Mikroreaktoren eingesetzt werden. Der wässrige Kern dieser Mikroreaktoren besteht aus einer Substratlösung für enzymatische Umsetzungen. Durch Bewegen der Mikroreaktoren können diese über immobilisierten Enzymen positioniert werden, um so einen enzymatischen Umsatz innerhalb der Mikroreaktoren zu realisieren. Hierfür wurde eine neue Mikroreaktorplattform-Technologie etabliert. Die Mikroreaktoren können aufgrund ihrer magnetisierbaren Hüllenpartikel über elektromagnetische Spulen bewegt werden. Die Bewegung erfolgt dabei mit einer automatisierten Aktuatorplattform, bestehend aus einer 3x3 Doppelspulenmatrix mit Magnetkernen. Als modellhaftes Reaktionssystem wird eine Enzymkaskade eingesetzt, die sich aus einer b-Glucosidase, Glucose-Oxidase und Meerrettichperoxidase zusammensetzt. Primär untersuchte Substrate sind Fluorescein-di-b-D-glucopyranoside, und 1-(3,7-Dihydroxy-10H-phenoxazin-10-yl)-ethanon, bei deren Umsatz fluoreszierende Produkte entstehen.
In this work, we present a compact, bifunctional chip-based sensor setup that measures the temperature and electrical conductivity of water samples, including specimens from rivers and channels, aquaculture, and the Atlantic Ocean. For conductivity measurements, we utilize the impedance amplitude recorded via interdigitated electrode structures at a single triggering frequency. The results are well in line with data obtained using a calibrated reference instrument. The new setup holds for conductivity values spanning almost two orders of magnitude (river versus ocean water) without the need for equivalent circuit modelling. Temperature measurements were performed in four-point geometry with an on-chip platinum RTD (resistance temperature detector) in the temperature range between 2 °C and 40 °C, showing no hysteresis effects between warming and cooling cycles. Although the meander was not shielded against the liquid, the temperature calibration provided equivalent results to low conductive Milli-Q and highly conductive ocean water. The sensor is therefore suitable for inline and online monitoring purposes in recirculating aquaculture systems.
Enzymatic hydrolysis of lignocellulosic material plays an important role in the classical biorefinery approach. Apart from the pretreatment of the raw material, hydrolysis is the basis for the conversion of the cellulose and hemicellulose fraction into fermentable sugars. After hydrolysis, usually a solid-liquid separation takes place, in order to separate the residual plant material from the sugar-rich fraction, which can be subsequently used in a fermentation step. In order to factor out the separation step, the usage of in alginate immobilized crude cellulose fiber beads (CFBs) were evaluated. Pretreated cellulose fibers are incorporated in an alginate matrix together with the relevant enzymes. In doing so, sugars diffuse trough the alginate matrix, allowing a simplified delivery into the surrounding fluid. This again reduces product inhibition of the glucose on the enzyme catalysts. By means of standardized bead production the hydrolysis in lab scale was possible. First results show that liberation of glucose and xylose is possible, allowing a maximum total sugar yield of 75 %.
In diesem Beitrag geht es um die Integration von Stoffströmen einer Lignocellulose-Bioraffinerie in Verfahren zur Batterieherstellung. Pflanzliche Reststoffe aus der Biokraftstoffherstellung wie Lignin sollen zur Herstellung neuer Batteriematerialien verwendet werden. Hierbei wird das Lignin als Matrix für die vorgraphitischen C-haltigen Einlagerungsverbindungen in den Elektroden genutzt. Die Si-C-Komposite werden durch das Einbetten von Si in eine Ligninmatrix mit anschließender Carbonisierung hergestellt. Das Lignin hierfür wird durch die sequentielle hydrothermale Vorbehandlung von Buchenholz bei variablen Bedingungen gewonnen und mit Si-Nanopartikel sowie als Referenz ohne Si-Nanopartikel gefällt. Die Ergebnisse zeigen, dass die sequenzielle Vorbehandlung höhere Ausbeuten im Vergleich zum LHW- oder Organosolv-Aufschluss liefert. Um eine Anode herzustellen, wurde das resultierende Si–C-Kompositmaterial carbonisiert, auf einen Stromsammler aufgetragen und elektro-chemisch charakterisiert. Der Einfluss der Vorbehandlungsschritte auf den Herstellungsprozess und die ökonomische Bewertung des untersuchten Bioraffinerie-Prozesses wurde mithilfe eines Stoffstrommodells analysiert.
Die am häufigsten genutzten Rohstoffe für die Produktion von Treibstoffen und Chemikalien sind fossilen Ursprungs. Da diese limitiert sind, werden im Hinblick auf die Nachhaltigkeit alternative, erneuerbare Rohstoffquellen intensiv untersucht. Vielversprechend in diesem Kontext sind die in Lignocellulose enthaltenen Zucker, die beispielsweise zur Produktion von Ethanol genutzt werden können. In der Regel sind für eine Lig-nocellulose-Bioraffinerie mehrere Prozessschritte notwendig: Vorbehandlung, Verzuckerung und Fermentation. Um diesen Prozess einfacher zu gestalten, ist es möglich, die Verzuckerung und die Fermentation in einem Schritt durchzuführen (SSF). Als Substrat wird hier Cellulose-Faserstoff verwendet, der durch das Organosolv-Verfahren aufgeschlossen wurde. Die Hydrolyse erfolgt mit kommerziell erhältlichen Enzymen und für die Fermentation zu Ethanol werden zwei Hefen verwendet. Beim SSF-Verfahren konnte, im Vergleich zur entkoppelten Verfahrensweise, trotz bestehender Unterschiede in den Temperatur-Optima von Enzymen und Hefen eine Steigerung in der Ethanol-Ausbeute von 0,15 auf 0,2 gg⁻¹ beobachtet werden. Um wirtschaftliche Ausbeuten und Konzentrationen des Produkts erzielen zu können, ist es notwendig den Prozess weiter zu optimieren. Im Einzelfall muss überprüft werden, ob diese Verfahrensweise auch für die Produktion anderer interessanter Stoffe (wie Itaconsäure, Bernsteinsäure) geeignet ist.
b-Lactame gehören zu den wirkungsvollsten Antibiotika, jedoch lassen sich viele nur schwierig fermentativ erzeugen. Ein Problem bei der fermentativen Produktion ist die Hydrolyse des Lactamrings im wässrigen Milieu. Das Ziel des von der DBU geförderten Projekts ist die selektive In-situ-Adsorption der b-Lactamantibiotika unter anschließender magnetischer Separation. Durch die Isolation im Hochgradientenmagnetseparator (HGMS) ist eine Fest-fest-flüssig-Trennung und somit ein erheblicher Zeitgewinn im Downstreamprozess möglich. Zusätzlich kommt es zur Einsparung an Lösungsmittel und Energie, was neben Reduzierung der Antibiotikahydrolyse auch in ökologischer Hinsicht einen interessanten Aspekt darstellt. Als Trägermaterial für die Adsorbermatrix werden magnetisierbare Eisenoxidpartikel eingesetzt, die in einer Silikamatrix eingebettet sind. Diese Adsorber sollen auf Selektivität in Wasser und verschiedenen Medien getestet werden. Zusätzlich werden die Abbauprodukte des b-Lactams analysiert, um eine Aussage über die Stabilisierung des Antibiotikums durch die selektiven Adsorber treffen zu können. Diese Ergebnisse werden mit kommerziell erhältlichen Adsorbern verglichen. Die Aufreinigung der Antibiotika soll direkt aus der Fermentationsbrühe erfolgen. Um die Trennung der magnetischen, selektiven Adsorber von der Biomasse zu gewährleisten, soll der HGMS in die Fermentation integriert werden. Das filamentöse Wachstum des Mikroorganismus erfordert eine Neuauslegung der Filtermatrix.
Lignine bestehen aus einem hochgradig vernetzten Polymer phenolischer Grundeinheiten. Diese Verbindungen sind eine Quelle vielversprechender chemischer Grundbausteine. Auch die enzymatische Modifikation der Materialeigenschaften des Lignins ist für dessen Anwendung von Interesse. Aufgrund der verschiedenen Bindungstypen im Lignin ist eine Auftrennung mit nur einem Enzym unwahrscheinlich. Vielmehr sind verschiedene mediatorgestützte Reaktionen notwendig. Pilze, wie z.B. T. versicolor, nutzen Enzymkombinationen zum Aufschluss des Lignins. Hierbei kommen Laccase, Ligninperoxidase und Manganperoxidase zum Einsatz. Die optimale Kombination der Enzyme und ihrer Mediatoren bzw. Stabilisatoren ist Ziel der Untersuchungen. Aufgrund der großen Parameteranzahl wurde ein genetischer Algorithmus eingesetzt. Als Versuchsparameter wurden gewählt: die Verhältnisse der Enzyme, Ligninmasse, Konzentrationen an Eisen-, Mangan-, Oxalat-Ionen, ABTS, Violursäure und H₂O₂. Somit werden elf Parameter simultan optimiert. Als Algorithmus wurde ein Programm mit variabler Genkodierung entwickelt. Die Umsetzung des Lignins wird dabei über den verfolgt. Zurzeit ist ein enzymatischer Umsatz von 12% möglich. Als Referenz wurde eine chemische Lignindegradierung mit einem Umsatzvon 37% etabliert. Die sechs Generationen des Algorithmus zeigen eine Kongruenz der Enzymkonzentrationen von LiP, MnP und VeP, während Laccase keinen Einfluss hat. Des Weiteren beeinflussen die Konzentrationen von Mangan und Oxalat die Umsetzung, während die Variation von ABTS- und H₂O₂ nur eine geringe Auswirkung hat.
Molke fällt im Rahmen der Käseherstellung allein in Deutschland in Mengen von über 11 Mio. Tonnen jährlich an. Dieses Nebenprodukt wurde trotz seines Reichtums an Milchzucker und Proteinen lange Zeit kaum industriell weiterverarbeitet und stellte ein bedeutendes Problem bei der Abwasserreinigung dar. Derzeit kommen meist kosten- und reinigungsintensive Membranfiltrationsverfahren bei der Auftrennung von Molke in ihre Hauptkomponenten Lactose und Molkenprotein zum Einsatz. Die Produkte finden vorwiegend in der Nahrungsmittelindustrie Anwendung als Süßungsmittel, Proteinzusatz oder Texturbildner. Die Mehrheit des Proteins wird dabei als Konzentrat bzw. Proteinpulver verarbeitet. Wegen der antibakteriellen, antiviralen und weiteren wertvollen physiologischen Eigenschaften der Molkeproteine stellt eine weitere Aufreinigung der einzelnen Molkeproteine für die pharmazeutische Industrie einen naheliegenden zusätzlichen Wertschöpfungsschritt dar. In Kooperation mit der Süd Chemie AG wurde damit begonnen, ein Verfahren zu entwickeln, das kostengünstige mineralische Adsorbentien verwendet. Bisher konnte die Abtrennung von Lactose von den Molkenproteinen aus verdünntem Molkekonzentrat in einem Verfahrensschritt ohne Vorbehandlung des Rohstoffs erfolgreich realisiert werden. Aktuelle Arbeiten beschäftigen sich mit der Verbesserung der Proteinbindekapazitätund chromatographischen Proteinauftrennung sowie dem Upscaling zum direkten Einsatz von Molkekonzentrat ohne Vorverdünnung.
Molke als Nebenprodukt der Käseherstellung wurde lange Zeit als Abfall betrachtet. Bedingt durch ihren hohen BOD (biological oxygen demand) war die direkte Einleitung in Gewässer, aber auch der mikrobielle Abbau in Kläranlagen bedenklich. Falls eine Weiterverarbeitung der Molke stattfand, so geschah dies meist zu Molkepulver oder Proteinkonzentrat. Als Untersuchungen der Molkeproteine jedoch unter pharmazeutischen Gesichtspunkten interessante Eigenschaften nahelegten, stieg das Interesse am Bioprodukt Molke und ihren Proteinen an. So stehen beispielsweise für die Molkeproteine a-Lactalbumin (ala) und b-Lactoglobulin (blg) antibakterielle, anticancerogene und diverse andere physiologische Effekte in der Diskussion. Gegenwärtig finden meist Membranverfahren zur Aufreinigung von Molkeproteinen Anwendung. Als alternatives Verfahren wurde am Institut für Bioverfahrenstechnik in Kaiserslautern ein chromatographisches Verfahren entwickelt, bei dem natürliche Tonminerale zum Einsatz kamen. Nach chemischer und physikalischer Modifikation des Ausgangsmaterials durch den Hersteller Süd-Chemie wurden drei der Adsorber für nähere Untersuchungen zur Auftrennung von Molkeproteinen aus Molkekonzentrat herangezogen. Nach einer Cross-Flow-Filtration des Molkekonzentrats erfolgte die Aufreinigung der Molkeproteine in einem FPLC-System.
Die ökonomische Abhängigkeit von fossilen Brennstoffen und der klimatische Wandel durch die Nutzung dieser haben zu einer intensiven Suche nach erneuerbaren Rohstoffen für die Produktion von Chemikalien und Treibstoffen geführt. Ein viel versprechender Rohstoff in diesem Zusammenhang sind Zucker, die mittels enzymatischer Hydrolyse aus Lignocellulose gewonnen und beispielsweise zu Ethanol umgesetzt werden können. Dabei ist es notwendig die Hydrolyse in Hinsicht auf das verwendete Substrat und die Verwendung der entstehenden Hydrolysate für die Fermentation von Alkohol zu optimieren. Als Substrat dienen Cellulose- und Hemicellulose-Fraktionen, die durch thermo-chemische Vorbehandlung von Holz gewonnen werden. Die Vorbehandlung erfolgt bei unserem Projektpartner am Johann Heinrich von Thünen Institut in Hamburg. Verschiedene kommerziell erhältliche Enzyme, thermostabile eingeschlossen, wurden auf ihre Fähigkeit hin untersucht, diese Fraktionen zu den entsprechenden Zuckern umsetzen zu können. Um die Konzentration an fermentierbaren Zuckern zu steigern werden verschiedene Optimierungen durchgeführt, z. B. die Erhöhung der Substrat- bzw. Enzymkonzentrationen. Ein weiterer interessanter Ansatz, welcher ebenfalls verfolgt wird, ist es die Hydrolyse und die Fermentation in einem Schritt durchzuführen.
Biotechnologische Wertstoffgewinnung entlang der Prozessketten Grüner und Pflanzenöl-Bioraffinerien
(2014)
Der nachwachsende Rohstoff Raps ist in großen Mengen verfügbar und eine Quelle für Biomoleküle mit hohem Wertschöpfungspotenzial. Entwicklungen zur biotechnologischen Wertstoffgewinnung werden dabei schwerpunktmäßig in den Bereichen Aufarbeitung und Funktionalisierung von Polyphenolen und Fetten betrieben. Bei der Verarbeitung der Pflanzenmaterialien werden dabei insbesondere Verfahren zur adsorptiven Aufreinigung und Auftrennung mittels Materialien mit modifizierten Bleicherden und anderen organischen oder anorganischen Adsorbentien untersucht. Ferner wurden für die Aufreinigung von Polyphenolen adsorptive sowie extraktive Prozesse entwickelt. Bei den Entwicklungen wird berücksichtigt, dass Bioraffinerien auf eine fortwährende Gewährleistung eines hohen Produktions- bzw. Lieferbedarfs nachwachsender Rohstoffe angewiesen sind. Somit werden Optionen dezentraler regionaler Vorbehandlungs- und Wertschöpfungsketten in der Nähe landwirtschaftlicher Betriebe einbezogen. Neben neuen Aufreinigungsverfahren werden mikrobielle und enzymatische Prozesse zur wertsteigernden Umsetzung von Glycerin, Polyphenolen und Zuckermonomeren vorgestellt sowie Limitierungen nachwachsender Rohstoffe der 2. Generation diskutiert.
Prozessintegrierte Magnetseparation im Labormaßstab mittels High-Gradient Magnetic Separator (HGMS)
(2014)
Die Hochgradient-Magnetseparation (HGMS) stellt eine Alternative zu konventionellen Methoden der Proteinaufarbeitung wie Filtration und Chromatographie dar und dient zudem als Prozessintensivierung. Bisherige Separatoren sind für Anwendungen von mehreren Litern Prozessvolumina Fermentationsmedium und Gramm Magnetpartikel ausgelegt. Bei der Entwicklung und Anwendung neuartiger Magnetpartikeloberflächen ist die Verfügbarkeit großer Mengen nicht gegeben. Bisherige Filterkammern erhöhen zudem den Arbeitsaufwand und verursachen größere Partikelverluste bei Spülvorgängen oder der Reinigung aufgrund der Partikeladsorption. Für Anwendungen im Maßstab < 500 mL wird deshalb ein Miniatur-Hochgradientfilter (miniHGF) entwickelt. Das Modell wird im 3D-Drucker Makerbot Replicator 2 gefertigt und magne-isierbare Drähte zur Partikelabscheidung eingesetzt. Die Vergleichbarkeit mit einem etablierten Magnetseparator wird anhand der Aufnahme von Durchbruchskurven und Bestimmung der Filtereffizienz untersucht. Die Praxistauglichkeit mit kleinen Volumina wird in wiederholten Batch-Versuchen mit auf Magnetpartikeln immobilisiertem Enzym und einem kolorimetrischen Assay geprüft.
Primäre Ziele der Hydrolyse pflanzlicher nachwachsender Rohstoffe sind möglichst hohe Zuckerkonzentrationen für nachfolgende Fermentationen und eine Maximierung der Produktivität. Zur Optimierung dieser Prozesse wird Organosolv-aufgeschlossene Buchenholz-Cellulose verwendet. Die Hydrolyse des Faserstoffes erfolgt mithilfe von Novozymes CTec2-Enzymen. Die Hydrolysen konnten durch neue Rührerelemente auf einen Maßstab von 1000 L übertragen werden. Dabei konnten maximale Ausbeuten (g Glucose g –1 Glucose im Faserstoff) bis 81 g g – 1 und Konzentrationen von 152 g L –1 erreicht werden. Zurzeit können unter Einsatz eines Feststoffreaktors Cellulosefasern in einer Konzentration bis 400 g L –1 enzymatisch hydrolysiert werden. Die cellulolytischen Enzyme stoßen bei hohen Feststoffkonzentrationen an ihre Grenzen. Mit steigendem Feststoffgehalt nimmt die Hydrolyseausbeute ab. Ein Ansatz zur Steigerung der Effizienz ist der Einsatz ligninolytischer Enzyme, die Ligninreste an der Organosolv-Cellulose aufschließen können. Eine solche Verbesserung der Zugänglichkeit für cellulolytische Enzyme an ihr Substrat wurde durch Kulturüberstände verschiedener ligninolytischer Pilze erreicht. Mit Kulturüberständen von Stereum sp. sind Steigerungen der Glucoseausbeuten um bis zu 30 % möglich.
Bei der Verarbeitung nachwachsender Rohstoffe entsteht aus Cellulose oder Stärke u. a. das wichtige Produkt Glucose. Diese niedermolekulare Kohlenhydratquelle wird üblicherweise als Substrat für biotechnologische und chemische Synthesen verwendet. Ein wirtschaftlich interessantes Oxidationsprodukt der Glucose ist Gluconsäure, die beispielsweise als Lebensmittelzusatzstoff (E 574), in der Medizin und Metallindustrie Verwendung findet. Die Umsetzung des Monosaccharids zu Gluconsäure erfolgt entweder durch mikrobielle Fermentation oder der Oxidation an heterogenen Katalysatoren. Die Zielsetzung der Studie ist die Untersuchung der Glucoseoxidation an magnetisierbaren Gold-Nanopartikeln unter nachfolgender Bypass-Separation des Katalysators mittels einer neuen Mini-HGMS-Einheit (Hochgradient-Magnetseparation). Dieser Filtertyp ermöglicht die selektive Trennung magnetischer Partikel aus Suspensionen mit hohem Feststoffgehalt oder Viskosität. Erste Ergebnisse zeigen eine Beladungskapazität des selbstkonstruierten Mini-HGMS von 550 mg goldbeschichteter magnetisierbarer Nanopartikel. Die Oxidation erfolgt bei einem pH-Wertvon 9, bei 40 °C und mit 100 mM Glucose in einem begasten Rührkesselreaktor. Das System soll zukünftig zum Katalysatorrecycling von hochviskosen und Feststoffbelasteten Produktströmen aus Bioraffinerien eingesetzt werden.
Aktiver und passiver antimikrobieller Oberflächenschutz durch funktionalisierte Mikropartikel
(2014)
Mikrobielle Verunreinigungen von Oberflächen in technischen und medizinischen Systemen sind allgegenwärtig. Sie basieren üblicherweise auf adsorptiven Oberflächenbindungen organischer Komponenten (Proteine und Fette) oder Membrankomponenten aerogener sowie wassergebundener Mikroorganismen. In laufenden Forschungsarbeiten wird eine aktive sowie passive Biomodifikation von Oberflächen zu deren Schutz vor Adsorption von Proteinen und Mikroorganismen verfolgt. Der antimikrobielle Schutz soll dabei sowohl durch die Mikrostrukturierung bzw. Rauheitsanpassung der Oberflächen durch deren Beschichtung mit Mikro-und Nanopartikeln erfolgen. Ferner werden antimikrobielle Enzyme und funktionelle Gruppen auf den Mikropartikeln gebunden, um den Oberflächenschutz zu verstärken. In ersten Versuchen wurden quartäre Ammoniumverbindungen auf eigens synthetisierten superparamagnetischen Eisenoxid-Nanopartikeln (Durchmesser 10 – 30 nm) immobilisiert und die wachstumshemmende Wirkung untersucht. Erste Ergebnisse zeigten, dass eine Konzentration von 10 mg mL⁻¹ der Ammoniumverbindung in einer Wachstumshemmung des verwendeten Gram-negativen Modell-Mikroorganismus E. coli GFPmut2 resultiert. Zurzeit werden synergistisch wirkende Kombinationen von Partikeln mit Proteasen, quartären Ammoniumverbindungen, hydrophoben Oberflächen und mikrostrukturierten Oberflächen als antimikrobieller Schutz untersucht.
Cytochrom P450 sind Häm-Proteine, die zur Enzymklasse der Oxidoreduktasen (EC 1.14.xy) gehören. Eine wichtige Reaktion ist die Hydroxylierung nichtaktivierter C–H-Bindungen, die in technischen Systemen von großem Interesse ist. Durch die Verwendung von M-IDA-2-Partikeln ist eine direkte Aufreinigung mit gleichzeitiger Immobilisierung und die Applikation der Enzyme aus dem Zelllysat möglich. Damit ist das Verfahren mehr als fünf Stunden schneller als die konventionelle Chromatographie und mehr als 80 % der Aufreinigungszeit wird gespart. Mit dem isolierten nativen Enzym konnte die Plattformchemikalie 9,10-Dihydroxystearinsäure aus Ölsäure hergestellt werden. Unter anderem für die Kunststoffindustrie können aus diesem Produkt wichtige Monomere wie z. B. Azelainsäure hergestellt werden. Die Bildung des Produkts erfolgt in einem zweiphasigen Reaktionssystem an der Grenzfläche zwischen dem Öl und der wässrigen Phase als Feststoff. Um das immobilisierte Enzym aktiv in die obere Phase zu transportieren, wurde eine neue magnetische Mischvorrichtung entwickelt. Das Reaktionsprodukt wurde mit NMR, GC-MS und HPLC-MS analysiert und mit einem chemisch synthetisierten Standard von 9,10-Dihydroxystearinsäure verglichen. Derzeit werden Studien des immobilisierten Häms des Enzyms durchgeführt.
Üblicherweise werden biotechnologische Reaktionssysteme im mikrofluidischen Maßstab in vorstrukturierten Bauteilen oder mit auf Wellplatten basierenden Robotersystemen realisiert. In dem hier vorgestellten System werden chemische oder biologische Reaktionen mit magnetischen Mikroreaktoren (MR) durchgeführt, bei denen hydrophobe magnetische Mikropartikel einen wässrigen Kern umschließen. Solche MR bieten eine gute Kontrolle der Reaktionsbedingungen, eine verbesserte Sicherheit und Portabilität. Die neue Plattformtechnologie ermöglicht die zweidimensionale Bewegung der magnetischen MR auf einer planaren Ebene. Oberhalb oder unterhalb der Plattform werden Magnetfeldgradienten zum Manipulieren und Bewegen eines oder mehrerer magnetischer MR erzeugt. Die optimal auf die MR wirkenden magnetischen Kräfte werden experimentell ermittelt und simuliert. Die Aktivierung der Magnetfelder wird automatisiert durch elektrische Spulen mit Eisenkern bzw. Neodymmagnet gesteuert. Angewendet wurde das System beim reversiblen Öffnen von MR, um z. B. Reaktionspartner in den wässrigen Kern zu injizieren oder Proben zu entnehmen. Ferner wurde Lac-case A und b-Glucosidase auf einer Quarzglasoberfläche immobilisiert und mit einem MR zum Reagieren gebracht. Weiterhin wurden MR fusioniert und so ein wässriger Kern bestehend aus Laccase mit einem aus dem entsprechenden Substrat Syringaldazin vereint.
In der Biotechnologie stellt Einzelstrang-DNA (ssDNA) eine Schlüsselrolle dar und fungiert z. B. als Baustein für die nanoskalige Feinmechanik oder als Affinitätsligand, ein sog. Aptamer. Hinsichtlich der industriellen Verwendung bieten Aptamere im Vergleich zu Antikörpern viele Vorteile, wie z. B. eine gute Renaturierung bzw. die Selektion für cytotoxische Moleküle. Aktuell wächst die Nachfrage für chimäre Aptamere von bis zu 200 n, um die simultane Bindung bzw. die Modifikation mehrerer Moleküle zu realisieren. Bis heute wird ssDNA mittels einer sequentiellen Synthese hergestellt, die eine Effizienz von ca. 99,5 % je Zyklus und bereits bei einer Produktlänge von 100 n nur noc hAusbeuten von max. 60 % zeigt. Um dem Bedarf an ssDNA im Bereich > 100 n zu entsprechen, wurden zwei enzymatische Verfahren zur Produktion dieser Makronukleotide entworfen. Die erste Technik basiert auf einerFestphasen-PCR und ermöglicht sowohlein Primer- als auch ein Templatrecycling. Das zweite Verfahren beruht auf einer Plasmidbasierten In-vivo-Amplifikation, der sog. AptaGENE®-Technologie. In einer einzigen Klonierung werden bis zu 100 Kopien des Monomers in einen Vektor kloniert. Nach einer Transformation folgt der reguläre Produktionsprozess in Form einer Kultivierung, Plasmidpräparation und sequenziellen Aufarbeitung von bis zu 6 · 10¹⁵ Makronukleotiden pro Milliliter Fermentationsvolumen.
Die Nutzung von Biomasse aus pflanzlichen Abfällen für die stoffliche Verwertung rückt immer stärker in den Vordergrund. Dabei ist vor allem die ganzheitliche Verwertung der Stoffströme von Bedeutung, da diese einen integrativen Ansatz ermöglichen. Im Rahmen dieser Arbeit wird die Produktion von Einzellerproteinen (Single-Cell Proteins, SCPs) mithilfe von unterschiedlichen Rohsubstraten dargelegt. Somit können Reststoffströme, die in keiner Konkurrenz zur Produktion von Lebensmitteln stehen, für die Herstellung von Futter- und auch Nahrungsmitteln Verwendung finden. Die zunächst thermisch vorbehandelten Ausgangsmaterialien stammen aus forstwirtschaftlichen und grünen Abfällen und ermöglichen durch eine anschließende enzymatische Hydrolyse die Freisetzung von Monosacchariden. Aus diesen erfolgt die SCP-Produktion fermentativ mithilfe der drei Modellorganismen Bakterium, Hefe und Pilz. Hierfür wird sowohl das flüssige Hydrolysat als auch der feste Reststoff auf der Basis einer Feststofffermentation genutzt. Auf diese Weise ist eine vollständige Verwertung der Ausgangsmaterialien möglich. Mit den gewonnen Daten erfolgt abschließend eine Bewertung der SCPs aus nachwachsenden Rohstoffen als alternative Proteinquelle.
Der zunehmende Bedarf an fossilen Rohstoffen bei gleichzeitig abnehmender Versorgungssicherheit führt zu einer intensiven Suche nach erneuerbaren Ressourcen. Ein vielversprechendes Ausgangsmaterial mit einer weltweiten Verfügbarkeit stellt Gras dar. In 2012 wurden in Deutschland 33 Millionen Tonnen (Heugewicht) Gras auf 4,82 Millionen Hektar Ackerland produziert, davon wurden 60,5 % siliert. Durch die Silierung kann Gras als Substrat zeitlich uneingeschränkt verfügbar sein, ohne dem Risiko des schnellen Verderbs ausgesetzt zu sein. Eine Schlüsselrolle im Rahmen des Silierprozesses nimmt die Produktion von Milchsäure ein. Milchsäure ist einbedeutendes biotechnologisches Produkt für die Lebensmittel- und die chemische Industrie. Im Rahmen dieser Arbeit wird die vollständige Umwandlung der fermentierbaren Zucker in der Silage zu Milchsäure angestrebt, um die maximale Ausbeute der organischen Säure zu erreichen. Im ersten Verfahrensschritt wird die Silage gepresst und der erhaltene Presskuchen einer Liquid-Hot-Water-Behandlung unterzogen. Durch diese einfache Vorbehandlung können hohe Glucoseausbeuten im nachfolgenden SSF-Schritt bei gleichzeitig geringem Enzymeinsatz und Chemikalienverbrauch realisiert werden. Zur Aufreinigung der Milchsäure wurden extraktive und chromatographische Methoden untersucht.
Einige Arten der Braun- und Weißfäulepilze sind in der Lage, selektiv entweder Lignin oder Cellulose im Holz abzubauen. Diese Pilze können für eine energiesparende Vorbehandlung lignocellulosehaltiger Biomasse für Bioraffinerien genutzt werden, ohne auf technisch aufwändige Aufschlussapparate zurückgreifen zu müssen. Weißfäulepilze bauen bevorzugt Lignin ab, wodurch die verbleibende Cellulose leichter für enzymatische Hydrolysen in das Monosaccharid Glucose zugänglich wird. Braunfäulepilze bauen dagegen Cellulose und Hemicellulose ab. Die Auswirkungen der Behandlung von Weizenstroh mit verschiedenen Pilzarten werden zurzeit untersucht. Dabei werden die Veränderung der enzymatischen Hydrolysierbarkeit des Substrats sowie die gebildeten Ligninderivate bestimmt. Detaillierte Betrachtungen der Biomasseveränderung werden mithilfe spezifischer Färbemethoden durchgeführt, durch die morphologische Veränderungen der Pflanzengewebe in der 3D-Lichtmikroskopie dargestellt werden können.
Die Teilefertigung durch Rapid Prototyping (RP) verkürzt den Weg von der Idee bis zum Produkt, wobei unter anderem Optimierungszyklen in geringer Zeit durchlaufen werden können. Ferner eröffnen neue Entwicklungen in diesem Bereich die Möglichkeit individueller Produktionsverfahren. Im Unterschied zur klassischen Fertigung von Prototypen wird beim RP mit additiver Schichtfertigung (Additive Layer Manufacturing, ALM) gearbeitet. Je nach Methode werden Flüssigkeiten oder Pulver nach Vorgaben eines 3D-Computermodells sequentiell aufgetragen. Diese Verfahren existieren seit ca. 25 Jahren, jedoch sind seit kurzem ausgesprochen günstige Geräte verfügbar, die Objekte mit Genauigkeiten bis 20 lm fertigen können. Das RP hat in klinischen Anwendungsgebieten bzw. im Bereich des Tissue Engineering bereits vielfach Einzug gefunden. Aber auch chemisch-biotechnologische Entwicklungen können von den Verfahren profitieren. So wurden Mikrofluidiksysteme und Bioreaktoren bereits erfolgreich durch RP gefertigt. Durch ALM ist ebenso die Herstellung von Reaktionseinheiten aus biokompatiblen Materialien wie ionotropen Gelen möglich. Ferner sind sehr komplexe Strukturierungen von Oberflächen im Nanometerbereich realisierbar, die für die Auftragung heterogener Katalysatoren oder auch Mikroorganismen eingesetzt werden können. Auch der Bereich Reaktoren- und Apparatebau kann von den Fortschritten in der additiven Fertigung profitieren. Verfahren wie selektives Laser- oder Elektronenstrahlschmelzen erlauben es, metallische Komponenten in nahezu beliebigen Geometrien zu fertigen. Somit können Strukturen verwirklicht werden, die mit konventionellen Fertigungstechniken nur sehr schwer oder überhauptnicht herstellbar wären. Durch Anwendung von rechnergestützter Modellierung können optimale Strukturen identifiziert und additiv gefertigt werden. Eine anschließende katalytische Funktionalisierung der Oberfläche ermöglicht die Herstellung strukturierter Reaktoren mit maßgeschneiderten Eigenschaften.
Die wachsende Produktpalette von z. B. Pharmazeutika geht mit einer steigenden Nachfrage für hochsensitive/schonende Aufreinigungstechniken einher. Bisherige Verfahren führen oft zu geringer Reinheit und verminderter Bioaktivität, zeigen eine Limitation der Analytengröße oder bedingen dessen Modifikation. Durch die Kombination von mikroskaligen Magnetpartikeln und spezifisch wechselwirkenden Einzelstrang-DNA-Oligonukleotiden, den sog. ssDNA-Aptameren, sind eine höhere Selektivität/Reinheit und eine Automatisierung möglich. In diesem Kontext werden zum einen ssDNA-Amplifikationstechniken und zum anderen der praktische Einsatz von Aptameren in einer Magnetseparation vorgestellt. Die ssDNA-Synthese basiert auf einem In-vivo-dsDNA-Produktionsschritt mittels eines rekombinanten Escherichia coli. Die als High-copy-Plasmid organisierte Sequenz wird in vitro durch Kombination verschiedener enzymatischer Reaktionen in die funktionelle ssDNA überführt. Diese Technik bedingt nur minimale Instrumentierung bzw. Prozessregelung. Die zweite Synthesetechnik wird in Form eines In-vitro-Amplifikationsverfahrens realisiert und beruht auf dem Prinzip einer PCR (Potenzial zu einer Automatisierung bzw. Miniaturisierung). Die gewonnenen Aptamere werden im Anschluss in einem auf Magnetpartikeln basierten Trennverfahren zur Isolationvon 6xHis-tag-Proteinen bezüglich ihrer Eigenschaften untersucht.
Optimierung der selektiven Aufarbeitung von Proteinen mit Aptamer-funktionalisierten Magnetpartikeln
(2012)
Die Herstellung pharmakologisch relevanter Proteine durch Mikroorganismen führt eine mehrstufige Aufarbeitung mit sich. Durch die Verwendung von Aptameren, kurzen einzelsträngigen DNA- oder RNA-Oligonukleotiden immobilisiert auf funktionalisierten, wiederverwendbaren Magnetpartikeln, können mehrere dieser Abtrennungsoperationen kombiniert und damit die Prozesskosten minimiert werden. Aufgrund der definierten dreidimensionalen Struktur können Aptamere kleine organische Moleküle hochspezifisch binden. Im vorgestellten Projekt wird die Aufarbeitung von His6-GFP als Modellprotein mithilfe der mit Aptamer funktionalisierten Magnetpartikel durchgeführt. In bisherigen Versuchen wurde die Bindung von Aptameren auf den magnetischen Partikeln sowie die Bindung des Modellproteins GFP auf den Partikeln optimiert. Des Weiteren wurden mehrere Strategien zur Elution des GFPs von den Partikeln verfolgt, um den Proteinertrag zu maximieren und die Partikel rezyklieren zu können. Die Untersuchung unspezifischer Bindungen von Zelltrümmern und Proteinen an die Magnetpartikel wurde mithilfe eines konfokalen Laser-Scanning-Mikroskops durchgeführt.
Der Erhalt möglichst hoher Zuckerkonzentrationen für nachfolgende Fermentationen und eine Steigerung der Produktivität sind Ziele der Hydrolyse bei hohen Feststoffkonzentrationen im Rahmen des Projekts „Lignocellulose Bioraffinerie“. Verwendet wird durch ein Organosolv-Verfahren aufgeschlossenes Buchenholz. Die Hydrolyse des Faserstoffes erfolgt mithilfe von CTec2-Enzymen (Fa. Novozymes). Zurzeit können unter Einsatz eines neuen Feststoffreaktors Cellulosefasern in einer Konzentration bis 400 g L⁻¹ enzymatisch hydrolysiert werden. Dabei werden Ausbeuten (g Glucose/g Cellulose im Faserstoff) bis 0,86 g g⁻¹ und Glucosekonzentrationenvon 120 g L⁻¹ erreicht. Ein Nachteil ist jedoch die hierbei auftretende Abnahme der Hydrolyseausbeuten. Zahlreiche Limitierungen bezüglich der Hydrolysierbarkeit von Lignocellulose werden zurzeit diskutiert und publiziert. Ziel der Untersuchungen ist die Identifizierung hydrolysehemmender Substanzen sowie die Erhöhung der Ausbeute an Zuckermonomeren durch den Einsatz lignolytischer Enzyme. Hierbei wird eine HPLC-MS-Methode zur Charakterisierung hemmender Substanzen eingesetzt, um potenzielle Inhibitoren zu erfassen.
Die fermentative Verwertung von Rohglycerin setzt je nach Herstellungsmethode und Produktionsorganismus eine Vorbehandlung des Glycerins zur Entfernung von Produktinhibitoren voraus. Durch den Einsatz von Hydrotalcit-Adsorbern können die im Rohglycerin enthaltenen Fettsäuren entfernt werden. Durch diese einfache Aufarbeitungsmethode ist ein mit reinem Glycerin vergleichbarer Umsatz von stark mit Fettsäuren verunreinigtem Rohglycerin zu 1,3-Propandiol (PDO) möglich. Die durch den Hydrotalcit gebundenen Fettsäuren lassen sich mit einem Ethanol-Wasser-Gemisch eluieren. Somit kann der Adsorber regeneriert und die Fettsäuren wieder der Wertschöpfungskette zugeführt werden. Im Fed-Batch-Experiment kann mit C. diolis eine PDO-Konzentration von über 50 g L⁻¹ unter Verwendung des aufgereinigten Rohglycerins erzielt werden. In der industriellen Produktion wird PDO momentan destillativ aufgearbeitet. Ein adsorptives Aufarbeitungsverfahren kann den Energiebedarf des Herstellungsprozesses drastisch senken. Auf der Suche nach einem geeigneten Material wurde ein Adsorberscreening in Bezug auf die Bindungseigenschaften durchgeführt. Mit einem b-Zeolith der Firma Süd ChemieAG konnte bisher die höchste Beladung im Modellsystem von 120 mg PDO/gAdsorber erreicht werden.
Im vom BMELV/FNR geförderten SynRg-Projekt wurde unter anderem Rapsschrot untersucht, um Polyphenole zu isolieren und aufzureinigen. Diese sollen anschließend als Basisbausteine für Polymere dienen und ihnen neuartige Eigenschaften verleihen. Derzeit wird an der Polyphenolextraktion gearbeitet, da bei organischen oder wässrigen Extraktionsprozessen überwiegend Sinapin, ein Cholinester der Sinapinsäure, vorliegt und dieses nicht für die Polymerbildung eingesetzt werden kann. Für die im Fokus stehende Sinapinsäure wird deshalb eine simultane Extraktion und enzymatische oder chemische Hydrolyse von Sinapin zu Sinapinsäure durchgeführt. Durch die Hydrolyse konnte die Sinapinsäureausbeute bereits um den Faktor 6,2 auf 15,8 mg g⁻¹ gegenüber einer reinwässrigen Extraktion gesteigert werden. Für die Aufreinigung des an Sinapinsäure reichen Extrakts erfolgt anschließend ein adsorptiver Aufarbeitungsschritt, bei dem Zeolithe zum Einsatz kommen. Mit diesem Material ist es möglich, die Sinapinsäure quantitativ zu adsorbieren und später mit 70 %igem Ethanol bei 60 °C zu desorbieren. Bei den Adsorbern handelt es sich um b-Zeolithe von der Süd-Chemie AG.
Die Hochgradientenmagnetseparation (HGMS) ist eine Methode zur Aufreinigung von biopharmazeutischen Produkten. Mit dieser Methode lässt sich in nur einem Schritt eine Fest/Fest/Flüssig-Trennung erzielen, was zu einer erheblichen Zeit- und Kostenersparnis im Downstreaming führt. Dennoch steht ihr industrieller Einsatz noch aus, was u. a. am Mangel an Analysenmethoden liegt, um die HGMS quantifizierbar zu machen. Gerade in der Pharmaproduktion werden Prozesse gebraucht, die gemäß den einschlägigen Vorschriften (cGMP) validiert und deren verfahrenstechnische Anlagenteile qualifiziert werden können. Die Schwierigkeit ist die Messung der magnetischen Mikrosorbentien in der Suspension, in der auch Zellen oder Zelltrümmer vorliegen. Im Rahmen eines Forschungsprojektes im „Zentralen Innovationsprogramm Mittelstand“ des BMWi wurden verschiedene Analysenmethoden untersucht. Die Durchflusszytometrie ermöglicht eine Charakterisierung von Partikeln und eine simultane quantitative Messung. Durch die multiparametrige Messung kann zwischen Zellen, Zelltrümmern und Magnetpartikeln unterschieden werden. Die At-line-Einbindung des Durchflusszytometers ist durch den Einsatz einer externen Pumpe möglich. Über eine automatisierte Messwertanalyse kann der HGMS-Prozess mittels der Durchflusszytometrie gesteuert werden.
Aus hölzernen Cellulosen und Hemicellulosen können durch enzymatische Hydrolyse fermentierbare Zucker für die Herstellung von Chemikalien und Treibstoffen gewonnen werden. Die bisherige Forschung fokussiert sich oft auf die Nutzung dieser Zucker zur Gewinnung von Ethanol. Daneben muss aber auch die stoffliche Nutzung zur Gewinnung von Grundchemikalien berücksichtigt werden. Eine solche Grundchemikalie ist Itakonsäure. Obwohl die biotechnologische Itaconsäureproduktion bereits eingehend untersucht und etabliert ist, gestaltet sie sich im Rahmen von Bioraffinerien der zweiten Generation als schwierig, da der überwiegend verwendete Produktionsorganismus gegen eine weite Bandbreite von Inhibitoren sensibel ist. Die Herstellung von Itaconsäure aus Buchenholzhydrolysaten wird im Rahmen der deutschen Lignocellulose-Bioraffinerie entwickelt. Die unbehandelten Hydrolysate ermöglichen weder das Wachstum von Aspergillus terreus noch die Bildung von Itaconsäure. Daher werden Möglichkeiten zur Konditionierung des Hydrolysates mit dem Ziel einer Itaconsäureproduktion mit hohen Ausbeuten und Konzentrationen vorgestellt.
In der Molkeverarbeitung dominieren Membranfiltrationsverfahren die Prozessführung. Hierbei werden üblicherweise Aufkonzentrierungen der Proteine und deren Trennung von dem Milchzucker Lactose durchgeführt. Der Prozess der adsorptiven Aufreinigung soll als kostengünstige Alternative zu den bisher gebräuchlichen Verfahren dienen. Weiterhin eröffnet sich durch das Verfahren die Möglichkeit, einzelne Proteinfraktionen während der Verarbeitung anzureichern. Als Proteinquellen wurden für die Untersuchungen Modellproteine, Lösungen aus Molkenproteinisolat, Dünnmolke und Molkekonzentrat verwendet. Die Eignung zur Proteinbindung wurden an Tonmaterialien, Silicaten und y-Aluminiumoxiden in Pulverform, in Form von Granulaten sowie Extrudaten als auch sphärischen Partikeln überprüft. Adsorbentien aus Bentonit/Silica und c-Aluminiumoxid können sowohl a-Lactalbumin (aLA) als auch b-Lactoglobulin (bLG) binden, wohingegen Materialien aus Siliciumoxid lediglich ein starkes Adsorptionsverhalten gegenüber bLG zeigen. Mischmaterialien aus Siliciumoxid und a-Aluminiumoxid zeigen dasselbe Verhalten wie Materialien aus Siliciumoxid, weisen jedoch eine geringere Kapazität auf. Die Materialen wurden hinsichtlich ihres Einsatzes in chromatographischen Verfahren und Batch-Prozessen untersucht und ein Prozessentwurf für einen zweistufigen Batch-Prozess im Rührkessel erarbeitet.
Simulation und Experiment bei der Aufarbeitung von Polyphenolen durch neue Silicatmaterialien
(2010)
Nachwachsende Rohstoffe stellen eine reichhaltige Quelle für die Gewinnung von wirtschaftlich interessanten Biomolekülen dar. Die Gruppe der Polyphenole ist dabei für mehrere Industriezweige bedeutend. Ihre antioxidativen Eigenschaften sind z. B. für die Pharmaindustrie interessant. Im derzeit bearbeiteten Projekt sollen Polyphenole aus Pflanzenbestandteilen isoliert und aufgereinigt werden, um sie dann als Komponenten für eine Vernetzung von Polymeren auf der Basis von Fettsäuren einzusetzen. Bisher sind im Wesentlichen Prozesse zur Entfernung von Polyphenolen aus Getränken wie Bier und Wein bekannt. Eine Wiedergewinnung der Polyphenole war in diesen Anwendungen bisher nicht relevant. Die Gewinnung bzw. Abtrennung der Polyphenole erfolgt u. a. durch kommerziell erhältliche Adsorbentien wie PVPP, Adsorberharze XAD16 (Rhöm & Haas) oder SP70 (Sepabeads), deren Partikelgrößen im Bereichvon 0,1 ± 0,8 mm und spezifischen Oberflächen von 700 ± 900 m 2 /g liegen. Als Alternative zu diesen Adsorbern sollen neue Materialien auf Basis von anorganischen Trennmedien, wie z. B. natürlichen Tonmineralien, für die Polyphenolabtrennung verwendet werden. Derzeit wird durch Abgleich von Experiment und Simulation ein Materialscreening durchgeführt. Durch den Einsatz molekulardynamischer Bindungssimulationen wird die Adsorbersuche beschleunigt und Vorhersagen zu Modifikationen bei der Herstellung der neuen Adsorbentien ermöglicht.
In diesem Beitrag wird die NIR- und MIR-Spektrometrie in Kombination mit multivariaten Kalibrationsmodellen zur Analyse von Monosacchariden und Cellulose aus Biomasse etabliert. Spektrengemischter Standardlösungen mit definierten Glucose- und Xylosekonzentrationen in Wasser werden im NIR-(Lambda 750, Perkin Elmer, USA) und MIR-Bereich (Spektrum 100, PerkinElmer) in Gegenwart von entweder Carboxymethylcellulose oder Grasfasern aufgenommen. Darauf basierend werden Kalibrationsmodelle (Unscrambler®, CAMO-Software AS, Norwegen) entwickelt und zur Vorhersage der Zuckerkonzentration in den Hydrolyseproben und der Celluloseanteile angewendet. Darüber hinaus wird die Partikelgröße der Rohstoffe bestimmt. Die Messergebnisse bilden die experimentelle Basis für die numerische Modellierung der Reaktionskinetik der enzymatischen Hydrolyse von Lignocellulose. Das Modell kombiniert die Bilanzierung der Partikelgrößenverteilungen mit der Multienzymkinetik. Dabei werden neben der Partikelgrößenverteilung und der Substratkonzentration die Zusammensetzung der Rohstoffe nach Vorbehandlung sowie die Produktinhibierung und mehrere enzymatische Aktivitäten berücksichtigt. Das Modell ermöglicht es, die Partikelgrößenverteilungen und die Konzentrationen der Substrate und Produkte während der Hydrolyse vorherzusagen und die kinetischen Parameter im Batch- sowie im Fed-Batch-Reaktor zu bestimmen.
In den letzten Jahren haben nachhaltige, biotechnologische Prozesse zunehmend an Bedeutung gewonnen. Die Aceton-Butanol-Ethanol-Fermentation (ABE-Fermentation) mit dem anaeroben Bakterium Clostridium acetobutylicum zur Gewinnung von Biobutanol könnte in diesem Zusammenhang eine Möglichkeit der nachhaltigen Kraftstoffproduktion darstellen. In dieser Arbeit wird der Einfluss zusätzlich verfügbarer Elektronen durch den Einsatz des Phenazin-Farbstoffs Neutralrot als Redoxmediator sowie das Anlegen eines elektrischen Potenzials während der ABE-Fermentation untersucht. Es wird gezeigt, dass das Neutralrot keinen Einfluss auf die Leerlaufspannung von ca. 500 mV vs. Ag/AgCl während der Fermentation hat. Der Mediator bewirkt allerdings eine frühere Butanolbildung sowie höhere Butanolkonzentrationen. Wird zudem die Mediatorkonzentration von 125 mM auf 250 mM angehoben, wird dabei auch die maximale Butanolkonzentration um 36 % ± 1,8 % innerhalb von28 Stunden gesteigert.
Gräser sind in der Lage, einen großen Teil der für eine biobasierte Wirtschaft benötigten Biomasse zur Verfügung zu stellen. Wie bei anderen lignocellulosehaltigen nachwachsenden Rohstoffen erfordert die Verwertung der im Gras enthaltenen Polysaccharide einen mehrstufigen Prozess aus Vorbehandlung, Hydrolyse und Fermentation. In Gräsern ist die Hemicellulose mitP henolcarbonsäuren wie Ferula- und p-Coumarsäure verestert, die die enzymatische Hydrolyse der Cellulose und Hemicellulose ebenso effektiv behindern wie Lignin. Anders als bei holzigen Rohstoffen ermöglicht dieser Aufbau aber eine enzymatische Vorbehandlung, mit der die Phenolcarbonsäuren abgespalten werden können. Da die bei der Vorbehandlung eingesetzten Enzyme in ihrer natürlichen Funktion synergistisch mit cellulytischen Enzymen zusammenarbeiten, besitzen sie ähnliche Optima wie die für die Hydrolyse der Polysaccharide eingesetzten Cellulasen und Hemicellulasen. Diese Eigenschaft ermöglicht die Integration von Vorbehandlung und Hydrolyse in einem einzigen Verfahrensschritt. Durch die Einführung der enzymatischen Vorbehandlung konnte das in der Literatur bekannte SSF-Verfahren für die Herstellung von Ethanol aus Gräsern um die Vorbehandlungsstufe erweitert werden. Das so realisierte simultaneous pretreatment, saccharification and fermentation (SPSF)-Verfahren stellt eine vollständige Integration der drei für die Nutzung von Lignocellulose nötigen Verfahrensschritte in der grünen Bioraffinerie dar.
Grasschnitt hat in Deutschland ein beträchtliches Potenzial als nachwachsender Rohstoff. Da frischer Grasschnitt nur in den Sommermonaten zur Verfügung steht und Gras bei der Lagerung verrottet, wird er unter anderem durch Silierung konserviert. Während der Silierung wird ein Teil der wasserlöslichen Kohlenhydrate unter anaeroben Bedingungen zu Milchsäure fermentiert. Die Kombination aus Luftabschluss und Ansäuerung bewirkt die Konservierung der Silage. Silage als weit verbreitetes landwirtschaftliches Erzeugnis ist somit ein potentieller, in großen Mengen verfügbarer Lieferant für eine Vielzahl von Substraten für mikrobielle Fermentationen. Diese können entweder durch die Hydrolyse der in den Pflanzen enthaltenen Cellulosen und Hemicellulosen oder durch die Verwendung eines Silagepresssaftes nutzbar gemacht werden. Die zu entwickelnden Prozesse sollen die verbleibenden Kohlenhydrate, inklusive der Cellulose und Hemicellulose, sowie die Milchsäure nutzen. Die in der Silage enthaltenen Zucker sollen zu Ethanol, Itakonsäure und Bernsteinsäure und die Milchsäure zu 1,2-Propandiol umgesetzt werden. Anfallende Reststoffe wie Hydrolyserückstände, Presskuchen und Fermentationsrückstände sollen bei allen zu etablierenden Prozessen entweder als Viehfutter verwendet oder der Biogasproduktion zugeführt werden können, wodurch eine vollständige stoffliche und energetische Nutzung der Silage erreicht wird.