Refine
Year of publication
Institute
- Fachbereich Medizintechnik und Technomathematik (2087)
- Fachbereich Elektrotechnik und Informationstechnik (1190)
- Fachbereich Wirtschaftswissenschaften (1167)
- Fachbereich Energietechnik (1117)
- Fachbereich Chemie und Biotechnologie (920)
- Fachbereich Maschinenbau und Mechatronik (885)
- Fachbereich Luft- und Raumfahrttechnik (801)
- Fachbereich Bauingenieurwesen (712)
- IfB - Institut für Bioengineering (693)
- INB - Institut für Nano- und Biotechnologien (616)
Language
- German (5150)
- English (4961)
- Russian (14)
- Portuguese (6)
- Italian (5)
- Multiple languages (5)
- Spanish (3)
- Dutch (2)
Document Type
- Article (5641)
- Conference Proceeding (1683)
- Book (1087)
- Part of a Book (578)
- Bachelor Thesis (332)
- Patent (177)
- Report (102)
- Conference: Meeting Abstract (83)
- Doctoral Thesis (82)
- Administrative publication (77)
Keywords
- Amtliche Mitteilung (72)
- Bachelor (34)
- Aachen University of Applied Sciences (31)
- Master (31)
- Prüfungsordnung (31)
- Bauingenieurwesen (30)
- Lesbare Fassung (28)
- Biosensor (25)
- Fachhochschule Aachen (23)
- Illustration (23)
Zugriffsart
- campus (2155)
- weltweit (1913)
- bezahl (790)
- fachbereichsweit (FB4) (38)
In der Biotechnologie stellt Einzelstrang-DNA (ssDNA) eine Schlüsselrolle dar und fungiert z. B. als Baustein für die nanoskalige Feinmechanik oder als Affinitätsligand, ein sog. Aptamer. Hinsichtlich der industriellen Verwendung bieten Aptamere im Vergleich zu Antikörpern viele Vorteile, wie z. B. eine gute Renaturierung bzw. die Selektion für cytotoxische Moleküle. Aktuell wächst die Nachfrage für chimäre Aptamere von bis zu 200 n, um die simultane Bindung bzw. die Modifikation mehrerer Moleküle zu realisieren. Bis heute wird ssDNA mittels einer sequentiellen Synthese hergestellt, die eine Effizienz von ca. 99,5 % je Zyklus und bereits bei einer Produktlänge von 100 n nur noc hAusbeuten von max. 60 % zeigt. Um dem Bedarf an ssDNA im Bereich > 100 n zu entsprechen, wurden zwei enzymatische Verfahren zur Produktion dieser Makronukleotide entworfen. Die erste Technik basiert auf einerFestphasen-PCR und ermöglicht sowohlein Primer- als auch ein Templatrecycling. Das zweite Verfahren beruht auf einer Plasmidbasierten In-vivo-Amplifikation, der sog. AptaGENE®-Technologie. In einer einzigen Klonierung werden bis zu 100 Kopien des Monomers in einen Vektor kloniert. Nach einer Transformation folgt der reguläre Produktionsprozess in Form einer Kultivierung, Plasmidpräparation und sequenziellen Aufarbeitung von bis zu 6 · 10¹⁵ Makronukleotiden pro Milliliter Fermentationsvolumen.
Die Nutzung von Biomasse aus pflanzlichen Abfällen für die stoffliche Verwertung rückt immer stärker in den Vordergrund. Dabei ist vor allem die ganzheitliche Verwertung der Stoffströme von Bedeutung, da diese einen integrativen Ansatz ermöglichen. Im Rahmen dieser Arbeit wird die Produktion von Einzellerproteinen (Single-Cell Proteins, SCPs) mithilfe von unterschiedlichen Rohsubstraten dargelegt. Somit können Reststoffströme, die in keiner Konkurrenz zur Produktion von Lebensmitteln stehen, für die Herstellung von Futter- und auch Nahrungsmitteln Verwendung finden. Die zunächst thermisch vorbehandelten Ausgangsmaterialien stammen aus forstwirtschaftlichen und grünen Abfällen und ermöglichen durch eine anschließende enzymatische Hydrolyse die Freisetzung von Monosacchariden. Aus diesen erfolgt die SCP-Produktion fermentativ mithilfe der drei Modellorganismen Bakterium, Hefe und Pilz. Hierfür wird sowohl das flüssige Hydrolysat als auch der feste Reststoff auf der Basis einer Feststofffermentation genutzt. Auf diese Weise ist eine vollständige Verwertung der Ausgangsmaterialien möglich. Mit den gewonnen Daten erfolgt abschließend eine Bewertung der SCPs aus nachwachsenden Rohstoffen als alternative Proteinquelle.
Der zunehmende Bedarf an fossilen Rohstoffen bei gleichzeitig abnehmender Versorgungssicherheit führt zu einer intensiven Suche nach erneuerbaren Ressourcen. Ein vielversprechendes Ausgangsmaterial mit einer weltweiten Verfügbarkeit stellt Gras dar. In 2012 wurden in Deutschland 33 Millionen Tonnen (Heugewicht) Gras auf 4,82 Millionen Hektar Ackerland produziert, davon wurden 60,5 % siliert. Durch die Silierung kann Gras als Substrat zeitlich uneingeschränkt verfügbar sein, ohne dem Risiko des schnellen Verderbs ausgesetzt zu sein. Eine Schlüsselrolle im Rahmen des Silierprozesses nimmt die Produktion von Milchsäure ein. Milchsäure ist einbedeutendes biotechnologisches Produkt für die Lebensmittel- und die chemische Industrie. Im Rahmen dieser Arbeit wird die vollständige Umwandlung der fermentierbaren Zucker in der Silage zu Milchsäure angestrebt, um die maximale Ausbeute der organischen Säure zu erreichen. Im ersten Verfahrensschritt wird die Silage gepresst und der erhaltene Presskuchen einer Liquid-Hot-Water-Behandlung unterzogen. Durch diese einfache Vorbehandlung können hohe Glucoseausbeuten im nachfolgenden SSF-Schritt bei gleichzeitig geringem Enzymeinsatz und Chemikalienverbrauch realisiert werden. Zur Aufreinigung der Milchsäure wurden extraktive und chromatographische Methoden untersucht.
Einige Arten der Braun- und Weißfäulepilze sind in der Lage, selektiv entweder Lignin oder Cellulose im Holz abzubauen. Diese Pilze können für eine energiesparende Vorbehandlung lignocellulosehaltiger Biomasse für Bioraffinerien genutzt werden, ohne auf technisch aufwändige Aufschlussapparate zurückgreifen zu müssen. Weißfäulepilze bauen bevorzugt Lignin ab, wodurch die verbleibende Cellulose leichter für enzymatische Hydrolysen in das Monosaccharid Glucose zugänglich wird. Braunfäulepilze bauen dagegen Cellulose und Hemicellulose ab. Die Auswirkungen der Behandlung von Weizenstroh mit verschiedenen Pilzarten werden zurzeit untersucht. Dabei werden die Veränderung der enzymatischen Hydrolysierbarkeit des Substrats sowie die gebildeten Ligninderivate bestimmt. Detaillierte Betrachtungen der Biomasseveränderung werden mithilfe spezifischer Färbemethoden durchgeführt, durch die morphologische Veränderungen der Pflanzengewebe in der 3D-Lichtmikroskopie dargestellt werden können.
Die Teilefertigung durch Rapid Prototyping (RP) verkürzt den Weg von der Idee bis zum Produkt, wobei unter anderem Optimierungszyklen in geringer Zeit durchlaufen werden können. Ferner eröffnen neue Entwicklungen in diesem Bereich die Möglichkeit individueller Produktionsverfahren. Im Unterschied zur klassischen Fertigung von Prototypen wird beim RP mit additiver Schichtfertigung (Additive Layer Manufacturing, ALM) gearbeitet. Je nach Methode werden Flüssigkeiten oder Pulver nach Vorgaben eines 3D-Computermodells sequentiell aufgetragen. Diese Verfahren existieren seit ca. 25 Jahren, jedoch sind seit kurzem ausgesprochen günstige Geräte verfügbar, die Objekte mit Genauigkeiten bis 20 lm fertigen können. Das RP hat in klinischen Anwendungsgebieten bzw. im Bereich des Tissue Engineering bereits vielfach Einzug gefunden. Aber auch chemisch-biotechnologische Entwicklungen können von den Verfahren profitieren. So wurden Mikrofluidiksysteme und Bioreaktoren bereits erfolgreich durch RP gefertigt. Durch ALM ist ebenso die Herstellung von Reaktionseinheiten aus biokompatiblen Materialien wie ionotropen Gelen möglich. Ferner sind sehr komplexe Strukturierungen von Oberflächen im Nanometerbereich realisierbar, die für die Auftragung heterogener Katalysatoren oder auch Mikroorganismen eingesetzt werden können. Auch der Bereich Reaktoren- und Apparatebau kann von den Fortschritten in der additiven Fertigung profitieren. Verfahren wie selektives Laser- oder Elektronenstrahlschmelzen erlauben es, metallische Komponenten in nahezu beliebigen Geometrien zu fertigen. Somit können Strukturen verwirklicht werden, die mit konventionellen Fertigungstechniken nur sehr schwer oder überhauptnicht herstellbar wären. Durch Anwendung von rechnergestützter Modellierung können optimale Strukturen identifiziert und additiv gefertigt werden. Eine anschließende katalytische Funktionalisierung der Oberfläche ermöglicht die Herstellung strukturierter Reaktoren mit maßgeschneiderten Eigenschaften.
Die wachsende Produktpalette von z. B. Pharmazeutika geht mit einer steigenden Nachfrage für hochsensitive/schonende Aufreinigungstechniken einher. Bisherige Verfahren führen oft zu geringer Reinheit und verminderter Bioaktivität, zeigen eine Limitation der Analytengröße oder bedingen dessen Modifikation. Durch die Kombination von mikroskaligen Magnetpartikeln und spezifisch wechselwirkenden Einzelstrang-DNA-Oligonukleotiden, den sog. ssDNA-Aptameren, sind eine höhere Selektivität/Reinheit und eine Automatisierung möglich. In diesem Kontext werden zum einen ssDNA-Amplifikationstechniken und zum anderen der praktische Einsatz von Aptameren in einer Magnetseparation vorgestellt. Die ssDNA-Synthese basiert auf einem In-vivo-dsDNA-Produktionsschritt mittels eines rekombinanten Escherichia coli. Die als High-copy-Plasmid organisierte Sequenz wird in vitro durch Kombination verschiedener enzymatischer Reaktionen in die funktionelle ssDNA überführt. Diese Technik bedingt nur minimale Instrumentierung bzw. Prozessregelung. Die zweite Synthesetechnik wird in Form eines In-vitro-Amplifikationsverfahrens realisiert und beruht auf dem Prinzip einer PCR (Potenzial zu einer Automatisierung bzw. Miniaturisierung). Die gewonnenen Aptamere werden im Anschluss in einem auf Magnetpartikeln basierten Trennverfahren zur Isolationvon 6xHis-tag-Proteinen bezüglich ihrer Eigenschaften untersucht.
Optimierung der selektiven Aufarbeitung von Proteinen mit Aptamer-funktionalisierten Magnetpartikeln
(2012)
Die Herstellung pharmakologisch relevanter Proteine durch Mikroorganismen führt eine mehrstufige Aufarbeitung mit sich. Durch die Verwendung von Aptameren, kurzen einzelsträngigen DNA- oder RNA-Oligonukleotiden immobilisiert auf funktionalisierten, wiederverwendbaren Magnetpartikeln, können mehrere dieser Abtrennungsoperationen kombiniert und damit die Prozesskosten minimiert werden. Aufgrund der definierten dreidimensionalen Struktur können Aptamere kleine organische Moleküle hochspezifisch binden. Im vorgestellten Projekt wird die Aufarbeitung von His6-GFP als Modellprotein mithilfe der mit Aptamer funktionalisierten Magnetpartikel durchgeführt. In bisherigen Versuchen wurde die Bindung von Aptameren auf den magnetischen Partikeln sowie die Bindung des Modellproteins GFP auf den Partikeln optimiert. Des Weiteren wurden mehrere Strategien zur Elution des GFPs von den Partikeln verfolgt, um den Proteinertrag zu maximieren und die Partikel rezyklieren zu können. Die Untersuchung unspezifischer Bindungen von Zelltrümmern und Proteinen an die Magnetpartikel wurde mithilfe eines konfokalen Laser-Scanning-Mikroskops durchgeführt.
Der Erhalt möglichst hoher Zuckerkonzentrationen für nachfolgende Fermentationen und eine Steigerung der Produktivität sind Ziele der Hydrolyse bei hohen Feststoffkonzentrationen im Rahmen des Projekts „Lignocellulose Bioraffinerie“. Verwendet wird durch ein Organosolv-Verfahren aufgeschlossenes Buchenholz. Die Hydrolyse des Faserstoffes erfolgt mithilfe von CTec2-Enzymen (Fa. Novozymes). Zurzeit können unter Einsatz eines neuen Feststoffreaktors Cellulosefasern in einer Konzentration bis 400 g L⁻¹ enzymatisch hydrolysiert werden. Dabei werden Ausbeuten (g Glucose/g Cellulose im Faserstoff) bis 0,86 g g⁻¹ und Glucosekonzentrationenvon 120 g L⁻¹ erreicht. Ein Nachteil ist jedoch die hierbei auftretende Abnahme der Hydrolyseausbeuten. Zahlreiche Limitierungen bezüglich der Hydrolysierbarkeit von Lignocellulose werden zurzeit diskutiert und publiziert. Ziel der Untersuchungen ist die Identifizierung hydrolysehemmender Substanzen sowie die Erhöhung der Ausbeute an Zuckermonomeren durch den Einsatz lignolytischer Enzyme. Hierbei wird eine HPLC-MS-Methode zur Charakterisierung hemmender Substanzen eingesetzt, um potenzielle Inhibitoren zu erfassen.
Die fermentative Verwertung von Rohglycerin setzt je nach Herstellungsmethode und Produktionsorganismus eine Vorbehandlung des Glycerins zur Entfernung von Produktinhibitoren voraus. Durch den Einsatz von Hydrotalcit-Adsorbern können die im Rohglycerin enthaltenen Fettsäuren entfernt werden. Durch diese einfache Aufarbeitungsmethode ist ein mit reinem Glycerin vergleichbarer Umsatz von stark mit Fettsäuren verunreinigtem Rohglycerin zu 1,3-Propandiol (PDO) möglich. Die durch den Hydrotalcit gebundenen Fettsäuren lassen sich mit einem Ethanol-Wasser-Gemisch eluieren. Somit kann der Adsorber regeneriert und die Fettsäuren wieder der Wertschöpfungskette zugeführt werden. Im Fed-Batch-Experiment kann mit C. diolis eine PDO-Konzentration von über 50 g L⁻¹ unter Verwendung des aufgereinigten Rohglycerins erzielt werden. In der industriellen Produktion wird PDO momentan destillativ aufgearbeitet. Ein adsorptives Aufarbeitungsverfahren kann den Energiebedarf des Herstellungsprozesses drastisch senken. Auf der Suche nach einem geeigneten Material wurde ein Adsorberscreening in Bezug auf die Bindungseigenschaften durchgeführt. Mit einem b-Zeolith der Firma Süd ChemieAG konnte bisher die höchste Beladung im Modellsystem von 120 mg PDO/gAdsorber erreicht werden.
Im vom BMELV/FNR geförderten SynRg-Projekt wurde unter anderem Rapsschrot untersucht, um Polyphenole zu isolieren und aufzureinigen. Diese sollen anschließend als Basisbausteine für Polymere dienen und ihnen neuartige Eigenschaften verleihen. Derzeit wird an der Polyphenolextraktion gearbeitet, da bei organischen oder wässrigen Extraktionsprozessen überwiegend Sinapin, ein Cholinester der Sinapinsäure, vorliegt und dieses nicht für die Polymerbildung eingesetzt werden kann. Für die im Fokus stehende Sinapinsäure wird deshalb eine simultane Extraktion und enzymatische oder chemische Hydrolyse von Sinapin zu Sinapinsäure durchgeführt. Durch die Hydrolyse konnte die Sinapinsäureausbeute bereits um den Faktor 6,2 auf 15,8 mg g⁻¹ gegenüber einer reinwässrigen Extraktion gesteigert werden. Für die Aufreinigung des an Sinapinsäure reichen Extrakts erfolgt anschließend ein adsorptiver Aufarbeitungsschritt, bei dem Zeolithe zum Einsatz kommen. Mit diesem Material ist es möglich, die Sinapinsäure quantitativ zu adsorbieren und später mit 70 %igem Ethanol bei 60 °C zu desorbieren. Bei den Adsorbern handelt es sich um b-Zeolithe von der Süd-Chemie AG.
Die Hochgradientenmagnetseparation (HGMS) ist eine Methode zur Aufreinigung von biopharmazeutischen Produkten. Mit dieser Methode lässt sich in nur einem Schritt eine Fest/Fest/Flüssig-Trennung erzielen, was zu einer erheblichen Zeit- und Kostenersparnis im Downstreaming führt. Dennoch steht ihr industrieller Einsatz noch aus, was u. a. am Mangel an Analysenmethoden liegt, um die HGMS quantifizierbar zu machen. Gerade in der Pharmaproduktion werden Prozesse gebraucht, die gemäß den einschlägigen Vorschriften (cGMP) validiert und deren verfahrenstechnische Anlagenteile qualifiziert werden können. Die Schwierigkeit ist die Messung der magnetischen Mikrosorbentien in der Suspension, in der auch Zellen oder Zelltrümmer vorliegen. Im Rahmen eines Forschungsprojektes im „Zentralen Innovationsprogramm Mittelstand“ des BMWi wurden verschiedene Analysenmethoden untersucht. Die Durchflusszytometrie ermöglicht eine Charakterisierung von Partikeln und eine simultane quantitative Messung. Durch die multiparametrige Messung kann zwischen Zellen, Zelltrümmern und Magnetpartikeln unterschieden werden. Die At-line-Einbindung des Durchflusszytometers ist durch den Einsatz einer externen Pumpe möglich. Über eine automatisierte Messwertanalyse kann der HGMS-Prozess mittels der Durchflusszytometrie gesteuert werden.
Aus hölzernen Cellulosen und Hemicellulosen können durch enzymatische Hydrolyse fermentierbare Zucker für die Herstellung von Chemikalien und Treibstoffen gewonnen werden. Die bisherige Forschung fokussiert sich oft auf die Nutzung dieser Zucker zur Gewinnung von Ethanol. Daneben muss aber auch die stoffliche Nutzung zur Gewinnung von Grundchemikalien berücksichtigt werden. Eine solche Grundchemikalie ist Itakonsäure. Obwohl die biotechnologische Itaconsäureproduktion bereits eingehend untersucht und etabliert ist, gestaltet sie sich im Rahmen von Bioraffinerien der zweiten Generation als schwierig, da der überwiegend verwendete Produktionsorganismus gegen eine weite Bandbreite von Inhibitoren sensibel ist. Die Herstellung von Itaconsäure aus Buchenholzhydrolysaten wird im Rahmen der deutschen Lignocellulose-Bioraffinerie entwickelt. Die unbehandelten Hydrolysate ermöglichen weder das Wachstum von Aspergillus terreus noch die Bildung von Itaconsäure. Daher werden Möglichkeiten zur Konditionierung des Hydrolysates mit dem Ziel einer Itaconsäureproduktion mit hohen Ausbeuten und Konzentrationen vorgestellt.
In der Molkeverarbeitung dominieren Membranfiltrationsverfahren die Prozessführung. Hierbei werden üblicherweise Aufkonzentrierungen der Proteine und deren Trennung von dem Milchzucker Lactose durchgeführt. Der Prozess der adsorptiven Aufreinigung soll als kostengünstige Alternative zu den bisher gebräuchlichen Verfahren dienen. Weiterhin eröffnet sich durch das Verfahren die Möglichkeit, einzelne Proteinfraktionen während der Verarbeitung anzureichern. Als Proteinquellen wurden für die Untersuchungen Modellproteine, Lösungen aus Molkenproteinisolat, Dünnmolke und Molkekonzentrat verwendet. Die Eignung zur Proteinbindung wurden an Tonmaterialien, Silicaten und y-Aluminiumoxiden in Pulverform, in Form von Granulaten sowie Extrudaten als auch sphärischen Partikeln überprüft. Adsorbentien aus Bentonit/Silica und c-Aluminiumoxid können sowohl a-Lactalbumin (aLA) als auch b-Lactoglobulin (bLG) binden, wohingegen Materialien aus Siliciumoxid lediglich ein starkes Adsorptionsverhalten gegenüber bLG zeigen. Mischmaterialien aus Siliciumoxid und a-Aluminiumoxid zeigen dasselbe Verhalten wie Materialien aus Siliciumoxid, weisen jedoch eine geringere Kapazität auf. Die Materialen wurden hinsichtlich ihres Einsatzes in chromatographischen Verfahren und Batch-Prozessen untersucht und ein Prozessentwurf für einen zweistufigen Batch-Prozess im Rührkessel erarbeitet.
Simulation und Experiment bei der Aufarbeitung von Polyphenolen durch neue Silicatmaterialien
(2010)
Nachwachsende Rohstoffe stellen eine reichhaltige Quelle für die Gewinnung von wirtschaftlich interessanten Biomolekülen dar. Die Gruppe der Polyphenole ist dabei für mehrere Industriezweige bedeutend. Ihre antioxidativen Eigenschaften sind z. B. für die Pharmaindustrie interessant. Im derzeit bearbeiteten Projekt sollen Polyphenole aus Pflanzenbestandteilen isoliert und aufgereinigt werden, um sie dann als Komponenten für eine Vernetzung von Polymeren auf der Basis von Fettsäuren einzusetzen. Bisher sind im Wesentlichen Prozesse zur Entfernung von Polyphenolen aus Getränken wie Bier und Wein bekannt. Eine Wiedergewinnung der Polyphenole war in diesen Anwendungen bisher nicht relevant. Die Gewinnung bzw. Abtrennung der Polyphenole erfolgt u. a. durch kommerziell erhältliche Adsorbentien wie PVPP, Adsorberharze XAD16 (Rhöm & Haas) oder SP70 (Sepabeads), deren Partikelgrößen im Bereichvon 0,1 ± 0,8 mm und spezifischen Oberflächen von 700 ± 900 m 2 /g liegen. Als Alternative zu diesen Adsorbern sollen neue Materialien auf Basis von anorganischen Trennmedien, wie z. B. natürlichen Tonmineralien, für die Polyphenolabtrennung verwendet werden. Derzeit wird durch Abgleich von Experiment und Simulation ein Materialscreening durchgeführt. Durch den Einsatz molekulardynamischer Bindungssimulationen wird die Adsorbersuche beschleunigt und Vorhersagen zu Modifikationen bei der Herstellung der neuen Adsorbentien ermöglicht.
In diesem Beitrag wird die NIR- und MIR-Spektrometrie in Kombination mit multivariaten Kalibrationsmodellen zur Analyse von Monosacchariden und Cellulose aus Biomasse etabliert. Spektrengemischter Standardlösungen mit definierten Glucose- und Xylosekonzentrationen in Wasser werden im NIR-(Lambda 750, Perkin Elmer, USA) und MIR-Bereich (Spektrum 100, PerkinElmer) in Gegenwart von entweder Carboxymethylcellulose oder Grasfasern aufgenommen. Darauf basierend werden Kalibrationsmodelle (Unscrambler®, CAMO-Software AS, Norwegen) entwickelt und zur Vorhersage der Zuckerkonzentration in den Hydrolyseproben und der Celluloseanteile angewendet. Darüber hinaus wird die Partikelgröße der Rohstoffe bestimmt. Die Messergebnisse bilden die experimentelle Basis für die numerische Modellierung der Reaktionskinetik der enzymatischen Hydrolyse von Lignocellulose. Das Modell kombiniert die Bilanzierung der Partikelgrößenverteilungen mit der Multienzymkinetik. Dabei werden neben der Partikelgrößenverteilung und der Substratkonzentration die Zusammensetzung der Rohstoffe nach Vorbehandlung sowie die Produktinhibierung und mehrere enzymatische Aktivitäten berücksichtigt. Das Modell ermöglicht es, die Partikelgrößenverteilungen und die Konzentrationen der Substrate und Produkte während der Hydrolyse vorherzusagen und die kinetischen Parameter im Batch- sowie im Fed-Batch-Reaktor zu bestimmen.
In den letzten Jahren haben nachhaltige, biotechnologische Prozesse zunehmend an Bedeutung gewonnen. Die Aceton-Butanol-Ethanol-Fermentation (ABE-Fermentation) mit dem anaeroben Bakterium Clostridium acetobutylicum zur Gewinnung von Biobutanol könnte in diesem Zusammenhang eine Möglichkeit der nachhaltigen Kraftstoffproduktion darstellen. In dieser Arbeit wird der Einfluss zusätzlich verfügbarer Elektronen durch den Einsatz des Phenazin-Farbstoffs Neutralrot als Redoxmediator sowie das Anlegen eines elektrischen Potenzials während der ABE-Fermentation untersucht. Es wird gezeigt, dass das Neutralrot keinen Einfluss auf die Leerlaufspannung von ca. 500 mV vs. Ag/AgCl während der Fermentation hat. Der Mediator bewirkt allerdings eine frühere Butanolbildung sowie höhere Butanolkonzentrationen. Wird zudem die Mediatorkonzentration von 125 mM auf 250 mM angehoben, wird dabei auch die maximale Butanolkonzentration um 36 % ± 1,8 % innerhalb von28 Stunden gesteigert.
Gräser sind in der Lage, einen großen Teil der für eine biobasierte Wirtschaft benötigten Biomasse zur Verfügung zu stellen. Wie bei anderen lignocellulosehaltigen nachwachsenden Rohstoffen erfordert die Verwertung der im Gras enthaltenen Polysaccharide einen mehrstufigen Prozess aus Vorbehandlung, Hydrolyse und Fermentation. In Gräsern ist die Hemicellulose mitP henolcarbonsäuren wie Ferula- und p-Coumarsäure verestert, die die enzymatische Hydrolyse der Cellulose und Hemicellulose ebenso effektiv behindern wie Lignin. Anders als bei holzigen Rohstoffen ermöglicht dieser Aufbau aber eine enzymatische Vorbehandlung, mit der die Phenolcarbonsäuren abgespalten werden können. Da die bei der Vorbehandlung eingesetzten Enzyme in ihrer natürlichen Funktion synergistisch mit cellulytischen Enzymen zusammenarbeiten, besitzen sie ähnliche Optima wie die für die Hydrolyse der Polysaccharide eingesetzten Cellulasen und Hemicellulasen. Diese Eigenschaft ermöglicht die Integration von Vorbehandlung und Hydrolyse in einem einzigen Verfahrensschritt. Durch die Einführung der enzymatischen Vorbehandlung konnte das in der Literatur bekannte SSF-Verfahren für die Herstellung von Ethanol aus Gräsern um die Vorbehandlungsstufe erweitert werden. Das so realisierte simultaneous pretreatment, saccharification and fermentation (SPSF)-Verfahren stellt eine vollständige Integration der drei für die Nutzung von Lignocellulose nötigen Verfahrensschritte in der grünen Bioraffinerie dar.
Grasschnitt hat in Deutschland ein beträchtliches Potenzial als nachwachsender Rohstoff. Da frischer Grasschnitt nur in den Sommermonaten zur Verfügung steht und Gras bei der Lagerung verrottet, wird er unter anderem durch Silierung konserviert. Während der Silierung wird ein Teil der wasserlöslichen Kohlenhydrate unter anaeroben Bedingungen zu Milchsäure fermentiert. Die Kombination aus Luftabschluss und Ansäuerung bewirkt die Konservierung der Silage. Silage als weit verbreitetes landwirtschaftliches Erzeugnis ist somit ein potentieller, in großen Mengen verfügbarer Lieferant für eine Vielzahl von Substraten für mikrobielle Fermentationen. Diese können entweder durch die Hydrolyse der in den Pflanzen enthaltenen Cellulosen und Hemicellulosen oder durch die Verwendung eines Silagepresssaftes nutzbar gemacht werden. Die zu entwickelnden Prozesse sollen die verbleibenden Kohlenhydrate, inklusive der Cellulose und Hemicellulose, sowie die Milchsäure nutzen. Die in der Silage enthaltenen Zucker sollen zu Ethanol, Itakonsäure und Bernsteinsäure und die Milchsäure zu 1,2-Propandiol umgesetzt werden. Anfallende Reststoffe wie Hydrolyserückstände, Presskuchen und Fermentationsrückstände sollen bei allen zu etablierenden Prozessen entweder als Viehfutter verwendet oder der Biogasproduktion zugeführt werden können, wodurch eine vollständige stoffliche und energetische Nutzung der Silage erreicht wird.
Die stoffliche Nutzung von Lignin aus Bioraffinerien ist ein wichtiger Bestandteil für den Wertschöpfungsprozess von nachwachsenden, pflanzlichen Rohstoffen. Lignin zählt zu den wenigen erneuerbaren Quellen für phenolische Bestandteile, wird aber derzeit meist nur thermisch verwertet. Ziel dieses Forschungsvorhabens ist die Funktionalisierung von Lignin zur Verbesserung der Adhäsionseigenschaften. Als funktionelle Gruppe wird die aromatische Aminosäure L-DOPA verwendet, die charakteristisch für die Adhäsionskraft von Muscheln ist. Lignin ist ein geeignetes Stützgerüst, da es ein Polymer ist, das durch enzymkatalysierte Polymerisation gebildet wird. Essenziell für die Entwicklung ist ein besseres Verständnis über die Bildung von Lignin-Polymeren und deren verschiedene Eigenschaften. Um die Einflussfaktoren auf Kettenlänge und Polymerisationseffizienz zu untersuchen, werden zurzeit sowohl Ligninmodellkomponenten (LMK) als auch gelöstes Organosolv-Lignin verwendet. Laufende Untersuchungen werden zeigen, ob sich die enzymatische Polymerisationsreaktion auf ein gelöstes Ligninpolymer aus einem Organosolv-Aufschluss übertragen lässt.
Die ökonomische Abhängigkeit von fossilen Brennstoffen und der klimatische Wandel durch die Nutzung dieser haben zu einer intensiven Suche nach erneuerbaren Rohstoffen für die Produktion von Chemikalien und Treibstoffen geführt. Ein viel versprechender Rohstoff in diesem Zusammenhang sind Zucker, die mittels enzymatischer Hydrolyse aus Lignocellulose gewonnen werden können. Die Fermentation erfolgt mit Cellulose- bzw. Hemicellulose-Fraktionen, welche durch thermo-chemische Vorbehandlung von Holz gewonnen und anschließend enzymatisch hydrolysiert werden. Die in den Hydrolysaten enthaltenen Zuckermonomere dienen als Kohlenstoffquelle für die Produktion von Ethanol. Da sowohl Glucose als auch Xylose in den unterschiedlichen Fraktionen enthalten sind, wird zur Umsetzung dieser eine Co-Fermentation zweier Hefen durchgeführt. Im Rahmen der Optimierung dieser Fermentationen werden neben der Ergänzung der Hydrolysate durch notwendige Salze auch Verfahrenweisen wie Fed-Batch-Fermentationen untersucht. Ein weiterer interessanter Ansatz, welcher in diesem Rahmen geprüft wird, ist die enzymatische Hydrolyse der Lignocellulose-Fraktionen und die simultane Fermentation der dabei entstehenden Zucker in einem Schritt. Des Weiteren wurde die Eignung der Hydrolysate für die Biomasseproduktion anderer Mikroorganismen wie Escherichia coli getestet.
Gräser sind in der Lage, einen großen Teil der für eine biobasierte Wirtschaft benötigten Biomasse zur Verfügung zustellen. Um eine ganzjährige Nutzung des Grases zu gewährleisten, muss eine stabile Lagerung des Grases erreicht werden, was z. B. durch Silieren möglich ist. Die konservierende Wirkung der Silierung beruht auf der Bildung organischer Säuren. Um diese zu gewinnen, wird die Silage gepresst, die organischen Säuren über Flüssig/Flüssig-Extraktion aus dem Presssaft abgetrenntund mittels chromatographischer Methoden weiter aufgereinigt. Im präsentierten Konzept werden die im Presskuchen enthaltenen Lignocellulosen hydrolysiert und die erhaltenen Monosaccharide zu Ethanol fermentiert. Die Phenolsäuren, die in Gräsern die Rolle des Lignins übernehmen, können simultan mit der Hydrolyse der Polysaccharide enzymatisch abgetrennt und als Nebenprodukt gewonnen werden. Die nach der Abtrennung des Ethanols verbleibenden Fermentationsreststoffe werden für die Herstellung von Biogas verwendet.
Die selektive Isolierung von Cephalosporin C (CPC) aus komplexen Fermentationssuspensionen unter Einsatz magnetischer Separation ist das Ziel dieser Arbeit. Das Verfahren wird im frühen Stadium der Aufarbeitung genutzt, um CPC zu stabilisieren und somit die Produktausbeute zu erhöhen. Als Adsorbersysteme für CPC wurden neben einem projektinternen magnetischen Material ND 10322, dessen Oberflächenladungen spezifisch für die Bindung des Zielmoleküls synthetisiert wurden, verschiedene kommerzielle Partikelsysteme verglichen. Es konnten massenspezifische Maximalbeladungen von 51 mg g⁻¹ erreicht werden. Weiterhin wurde die Stabilität von CPC untersucht. Unter optimalen Adsorptionsbedingungen kann CPC stabilisiert werden, so dass die Geschwindigkeitskonstante der Degradation des b-Lactam-Rings unter diesen Bedingungen unter 0,005 h⁻¹ liegt. Untersuchungen zur Wiederverwertbarkeit der neuen Adsorbers zeigten eine irreversible Bindung geringer CPC-Mengen nach dem ersten Einsatz. Nach zwölf Zyklen tritt eine irreversible Bindung von CPC ein, was zu einer signifikanten Reduktion der Adsorptionsfähigkeit führt. Die Anhäufung des CPC auf dem Adsorber konnte durch IR-Untersuchungen auf die Bildung einer Peptidbindung zwischen Carboxylgruppen des CPC und Aminogruppe der Adsorberoberfläche zurückgeführt werden.
Das strikt anaerobe Bakterium Clostridium acetobutylicum bildet die Lösemittel Aceton, Butanol und Ethanol (ABE-Fermentation). Im Fall einer Eisenlimitierung kommt es zusätzlich zu einer Riboflavinsekretion (RF), was durch die gelbe Färbung des Kulturüberstands erkennbar ist. In dieser Arbeit wurde beobachtet, dass während Elektrofermentationen mit C. acetobutylicum bei –600 mV eine gelbe Färbung auftritt. Es wurde deshalb untersucht, ob eine Eisenlimitierung im bio-elektrochemischen System (BES) vorliegt. Hierzu wurden die Flavinspezien bei Kultivierungen in Medien mit einer Eisenlimitierung bzw. mit ausreichend Eisen in Serumflaschen sowie im BES mit und ohne angelegtem Potenzial verglichen. In den Serumflaschenversuchen wurden RF und Flavinadenindinukleotid (FAD)-Konzentrationen von ‡ 20 mg L⁻¹ sowie Flavinmononukleotid (FMN)-Konzentrationen von ca. 5 mg L⁻¹ detektiert. Bei ausreichender Eisenverfügbarkeit hingegen wurden in den Serumflaschen fast keine Flavine sekretiert. Im BES bei –600 mV hingegen wurde auch in diesen Kulturüberständen FMN und FAD (1–5 mg L⁻¹ ),jedoch kein RF gemessen. Diese Ergebnisse zeigen, dass die Flavinbildung im BES mit angelegtem Potenzial nicht mit der Flavinbildung unter Eisenlimitierung in Serumflaschen korreliert. Andere Faktoren für eine mögliche Flavinbildung werden aktuell näher betrachtet.
In der Reihe der nachwachsenden Rohstoffe besitzt Holz als erneuerbare und umweltfreundliche Ressource ein großes Potenzial. Über 11 Mio. ha Holz, das laut der Fachagentur für nachwachsende Rohstoffe (FNR) auch für industrielle Zwecke genutzt werden kann, wuchsen im Jahr 2013 allein auf bundesdeutscher Fläche. 56,8 Mio. m³ jährlicher Holzeinschlag in den letzten zehn Jahren wurde zu knapp der Hälfte stofflich und der Rest energetisch verwertet. Im Rahmen dieser Arbeit konnte auf der Basis vom Holz der Buche, die nach Fichte und Kiefer die dritthäufigste Baumart in Deutschland ist und 15% der deutschen Waldfläche ausmacht, die Fraktionierung der polymeren Hauptbestandteile mit niedrigem energetischen Einsatz erreicht werden. Hierbei werden in einem nachgeschalteten Extraktionsprozess die beiden Komponenten Hemicellulose und Lignin in flüssiger Form von der finalen festen Cellulosefraktion abgetrennt. Die Extraktion der Hemicellulose erfolgt durch eine Liquid Hot Water (LHW)-Behandlung. Untersucht wird der katalytische Zusatz anorganischer Säuren wie H₃PO₄ und H₂SO₄. Im Hinblick auf die weitere Verwertung von Lignin zu aromatischen Synthesebausteinen kommt die Organosolv-Extraktion mit einem Ethanol/Wasser-Gemisch zum Einsatz. Von Vorteil ist die weitere Verwendung beider Stoffströme ohne Fällungsschritt und nachteiliger Verdünnung der Hemicellulose.
Durch den Einsatz magnetisierbarer Partikel lassen sich Stoffwechselprodukte direkt und selektiv aus feststoffreichen Fermentationssuspensionen abtrennen. Im Gegensatz zu klassischen Adsorbermaterialien können magnetisierbare Partikel mit sehr geringen Durchmessern verwendet werden. Zur deren Abtrennung ist jedoch ein hoher Magnetfeldgradient notwendig. Dieser wird in der Regel durch in der Trennkammer bzw. dem Magnetfeld eingebrachte magnetisierbare Drähte realisiert. Bei der Auslegung der Drahtgitter ist ein Kompromiss zwischen Abtrennrate und Durchlässigkeit nötig. Die Ausrichtung der Drähte in Relation zum Magnetfeld, deren Abstand sowie die geometrische Anordnung können hierbei variiert werden. Zum Verständnis der Einflüsse auf das sich ausbildende Magnetfeld und die Fluiddynamik wurden Simulationen mit der Finite-Elemente-Methode durchgeführt und experimentell überprüft. Hierfür wurden die Drähte unter Variation von Anzahl, Richtung und Anordnung in den Hochgradient-Magnetseparator eingebracht. Erste Verifizierungen der Simulationen zeigen, dass die in Magnetfeldrichtung ausgerichteten Drähte (x-Achse) über die geringste Partikelrückhaltefähigkeit verfügen. Die Drähte der y- und z-Achse halten den größten Anteil der Magnetpartikel zurück, wobei die Drähte in y-Richtung den höchsten Feldgradienten ausbilden. Des Weiteren konnte gezeigt werden, dass eine rhomboedrische Drahtanordnung der kubischen vorzuziehen ist.
In order to efficiently convert lignocellulose, it is often necessary to conduct a pretreatment. The biomass considered in this study typically comprises of agricultural and horticultural residues, as well as beechwood. A very environmentally friendly method, namely, fungal pretreatment using white-rot fungi, leads to an enhanced enzymatic hydrolysis. In contrast to other processes presented, the energy input is extremely low. However, the fungal growth on the lignocellulosic substrates takes several weeks at least in order to be effective. Thus, the reduction of chemicals and energy for thermal processing is a target of our current research. Liquid hot water (LHW) and solvent-based pretreatment (OrganoSolv) require more complex equipment, as they depend on high temperatures (160 – 180 °C) and enhanced pressure (up to 20 bar). However, they prove to be promising processes in regard to the fractioning of lignocellulose. For optimal lignin recovery the parameters differ from those established in cellulose extraction. A novel screening system scaled down to a reaction volume of 100 mL has been developed and successfully tested for this purpose.
Aufgrund von EU-Regularien und Umweltinitiativen wächst der Markt für nachhaltige und abbaubare Klebstoffe stetig. Organosolv (OS)-Lignin ist ein kommerziell wenig ertragreicher Nebenstrom der Lignocellulose-Bioraffinerie. Durch das "Nachahmen" der Adhäsionseigenschaften mit strukturverwandten Muschel-Aminosäuren soll OS-Lignin in einen starkes, vollständig biobasiertes Adhäsiv umgewandelt werden. Funktionsweisend für die Adhäsion des Muschelklebstoffes ist die Catecholgruppe der Aminosäure L-DOPA. Die laccase-katalysierte Polymerisationsreaktion von Lignin und L-DOPA ist schwierig zu kontrollieren, da L-DOPA eine Ringschlussreaktion eingeht. Stattdessen wurde eine zweistufige Reaktion mit einem Diamin als Ankermolekül etabliert. Die Catecholgruppe, die im zweiten Schritt enzymatisch an das Lignin-Amin gebunden wird, kann durch Komplexbildung mit Fe(III)-Ionen sowohl zur Adhäsion als auch zur Kohäsion des Klebstoffes beitragen. Der Lignin-Catechol-Klebstoff ist frei von petrochemischen Chemikalien und biologisch abbaubar. In ersten Stirnzugversuchen konnte eine Haftkraft von 0,3 MPa erreicht werden.
In most beers, producers strive to minimize haze to maximize visual appeal. To detect the formation of particulates, a measurement system for sub-micron particles is required. Beer haze is naturally occurring, composed of protein or polyphenol particles; in their early stage of growth their size is smaller than 2 µm. Microscopy analysis is time and resource intensive; alternatively, backscattering is an inexpensive option for detecting particle sizes of interest.
Mit Palmöl beladene Bleicherde wurde auf die Anwendbarkeit als Rohstoff zur Bildung von Aceton, Ethanol und Butanol (ABE) untersucht. Nach der Abtrennung des entfärbten bzw. gebleichten Öls bestehen 20–40 % (w/w) des Bleicherderückstands aus adsorbiertem Öl. Somit stellt das Mineral einen wertvollen Rohstoff dar. Zur Produktion der Lösungsmittel wurde das gebundene Öl hydrolysiert. Das freigesetzte Glycerin diente als Substrat einer nachfolgenden anaeroben Fermentation zu den ABE-Lösungsmitteln. Die Fermentationen wurden mit verschiedenen Clostridien-Stämmen durchgeführt, von denen einige lipolytische Aktivität aufweisen. Der Ölgehalt der Bleicherde betrug 28 % der Adsorbermasse. Für die Hydrolyse wurden drei Ansätze untersucht:
1. die direkte Fermentation des Adsorbers mit lipolytisch aktiven Clostridien,
2. der Einsatz von Lipasen und die Fermentation des resultierenden Überstands und
3. die Kofermentation mit einer lipolytisch aktiven Hefe.
Jeder der drei Ansätze führte zu einerHydrolyse des Öls und Wachstum der Mikroorganismen. Der Einsatz von Lipasen resultierte in einer vollständigen und der schnellsten Hydrolyse des Öls. Eine Glycerinkonzentration von 13,4 g/L konnte erreicht werden. Die anaerobe Fermentation der verschiedenen Clostridien auf Minimalmedien verlief erfolgreich. Der Vergleich der Fermentationen der Bleicherdehydrolysate zeigte, dass das Hydrolysat wachstumsinhibierende Substanzen enthält. Unter diesen Bedingungen konnte eine Ausbeute von Y P/S = 0,11 erzielt werden. Der Einsatz eines Ionenaustauschers zur Reinigung des Hydrolysats vor der Fermentation resultierte in einer Verbesserung des Wachstums
Electromicrobial engineering is an emerging, highly interdisciplinary research area linking bioprocesses with electrochemistry. In this work, microbial electrosynthesis (MES) of biobutanol is carried out during acetone-butanol-ethanol (ABE) fermentations with Clostridium acetobutylicum. A constant electric potential of −600mV (vs. Ag/AgCl) with simultaneous addition of the soluble redox mediator neutral red is used in order to study the electron transfer between the working electrode and the bacterial cells. The results show an earlier initiation of solvent production for all fermentations with applied potential compared to the conventional ABE fermentation. The f inal butanol concentration can be more than doubled by the application of a negative potential combined with addition of neutral red. Moreover a higher biofilm formation on the working electrode compared to control cultivations has been observed. In contrast to previous studies, our results also indicate that direct electron transfer (DET) might be possible with C. acetobutylicum. The presented results make microbial butanol production economically attractive and therefore support the development of sustainable production processes in the chemical industry aspired by the “Centre for resource-efficient chemistry and raw material change” as well as the the project “NanoKat” working on nanostructured catalysts in Kaiserslautern.
Glucose ist ein primäres Zwischenprodukt der Verarbeitung nachwachsender Rohstoffe, wie z. B. Cellulose. Die wertsteigernde Weiterverarbeitung des Monosaccharids erfolgt häufig in Form vonFermentationsprozessen, jedoch kann der Rohstoff auch für zahlreiche chemische Verarbeitungsstufen genutzt werden. Ein großtechnisch relevanter Prozess ist die Herstellung von Gluconsäure (GS), die u. a. als Nahrungsmittelzusatz (E 574) eingesetzt wird. Die Darstellung der Säure erfolgt durch Oxidation von Glucose mit magnetisierbarem Gold-Nano-Katalysator. Die Rückgewinnung des Katalysators aus der Reaktionslösung wurde unter Einwirkung eines Magnetfeldgradienten verwirklicht. Die Synthese der magnetischen Goldkatalysatoren (sowohl Trägerpartikel als auch Gold-Nanopartikel) wurde durch nass-chemische Fällungsreaktionen durchgeführt. Die Charakteristiken der neuen Materialen konnte durch Messungen des PCD-Potenzials, Laserbeugung und REM/EDX untersucht werden. So wurden u. a. Partikeldurchmesser von 25 lm und ein Goldgehaltvon 1,03 % ermittelt. Weiterhin wurden für die Goldkatalysatoren optimale Reaktionsbedingungen für die Glucoseoxidation im geregelten Rührkesselreaktor etabliert. Hierdurch konnten eine Produktselektivität von 100 % und eine Wiederverwendbarkeit der Partikel über mindestens zehn Zyklen erreicht werden.
Gras hat ein hohes Potenzial als nachwachsender Rohstoff. Bei ungeeigneter Lagerung verderben Gräser allerdings innerhalb weniger Tage. Dieser Nachteil kann durch die Silierung des Grasschnittes behoben werden. Eines der wichtigsten in der Silage enthaltenen Produkte ist die Milchsäure. Um diese für weitere Aufarbeitungsschritte zugänglich zu machen, wird aus der Silage ein Presssaft hergestellt. Die Milchsäure wird aus einem Silagepresssaft mittels Extraktion durch ionische Flüssigkeiten isoliert. Dabei wird zum einen eine reine Milchsäure hergestellt, die z. B. für die Herstellung von Polymilchsäure genutzt werden kann. Zum anderen wird ein weniger aufgereinigter Extrakt gewonnen, der für die fermentative Produktion von L-Lysin und 1,2-Propandiol genutzt werden soll. Im Rahmen des Projekts erfolgt die gentechnische Optimierung von Corynebacterium glutamicum für die Umsetzung von Milchsäurezu L-Lysin. Die im nach der Pressung verbleibenden Presskuchen enthaltenen Grasfasern bestehen zu einem großen Teil aus Polysacchariden. Diese werden hydrolysiert und die dabei freigesetzten Zucker zu Grundchemikalien wie Ethanol oder Itakonsäure fermentiert. Im Rahmen einer vollständigen Nutzung der Silage wird das Raffinat aus der Milchsäureextraktion als Mediumsupplement in der Fermentation eingesetzt, was die Zugabe weiterer Medienbestandteile überflüssig macht. Die Rückstände der Hydrolysen und Fermentationen sollen darüberhinaus für die Herstellung von Biogas genutzt werden.
Magnetisierbare Partikel als Träger von Katalysatoren können durch Anlegen eines magnetisches Feldes einfach und schnell abgetrennt werden. Die Wiedergewinnung von wertvollen Enzymen unter geringem Energie- und Materialeinsatz der magnetischen Abtrennung eröffnet einen Wettbewerbsvorteil für Produktionsprozesse. Die Abtrennung von magnetisierbaren Partikeln vom Überstand wird üblicherweise entweder durch Anlegen eines äußeren Magnetfelds und der resultierenden Ablagerung der Partikel an den Reaktorwänden oder durch Hochgradientenmagnetseparation (HGMS)durchgeführt. Beide Verfahren resultieren meist in der Bildung eines Filterkuchens aus Magnetpartikeln und den Feststoffen des Reaktionsmediums. Das magnetische horizontale Wirbelbett ermöglicht simultan eine kontinuierliche Reaktionsführung und die Rückhaltung der Partikel im Durchfluss. Die Partikelsuspension fließt durch einen Rohrreaktor, der in einem Magnetfeld mit wechselnden Feldgradienten eingebracht ist. Die Änderung des Magnetfeldgradienten erfolgt entgegen der Strömungsrichtung der Reaktionslösung. Durch alternierende Feldmaxima an den beiden Seiten des Reaktors werden die magnetisierbaren Partikel zu dessen Wänden gezogen. Bei Umkehrung des Feldes wandern die Partikel an die gegenüberliegende Reaktorwand. Durch Wahl einer geeigneten Wechselfrequenz kann eine kontinuierliche Durchmischung und Rückhaltung der Mikropartikel im durchströmten Rohr erreicht werden. Somit können Immobilisierungsreaktionen und Biotransformationen mit den Partikelsystemen im Durchfluss durchgeführt werden.
Technische Cellulose wurde als möglicher Rohstoff zur fermentativen Produktbildung untersucht. Hierfür wird Cellulose in der Lignocellulose-Bioraffinerie hergestellt und daraus Hydrolysat gewonnen. Die Prüfung der technischen Hydrolysate als Substrate erfolgte anhand eines breiten Spektrums an Bioprodukten, von Kraftstoffen wie Ethanolund Butanol, bis zu den Dicarbonsäuren Itacon- und Bernsteinsäure. Dabei werden Bakterien, Hefen und Pilze als Produktionsorganismen eingesetzt. Die einzelnen Herstellverfahren stellen unterschiedliche Anforderungen an die Substrathandhabung. Im Fall der Ethanol- und Butanol-Gewinnung kann eine simultane Saccharifizierung und Fermentierung (SSF) durchgeführt werden. Aufgrund der Produkttoxizität erfordert die Butanol-Herstellung dabei eine In-situ-Produktabtrennung durch Lösemittelimprägnierte Partikel. Die Herstellung der beiden Dicarbonsäuren unterscheidet sich in der Sensitivität der verwendeten Mikroorganismen gegenüber Inhibitoren, die in Spuren im Hydrolysat enthalten sind. Die Bernteinsäurebildung mit Actinobacillussuccinogenes kann mit unbehandeltem Hydrolysat erfolgen. Dagegen erfordert die Gewinnung von Itaconsäure mit A. terreus eine Detoxifizierung des Hydrolysats. Insgesamt konnte gezeigt werden, dass sämtliche Bioraffinerie-Hydrolysate als Substrate für unterschiedliche Fermentationen geeignet sind.
Die Lösungsmittelherstellung durch Clostridien konnte wirtschaftlich nicht mit der chemischen Synthese von Lösungsmitteln auf Erdölbasis konkurrieren und wurde in den frühen 1960er Jahren nahezu vollständig eingestellt. Das Interesse an nachwachsenden Rohstoffen hat in den letzten Jahren zu einem Wiederaufleben der ABE-Fermentation geführt. Aufgrund seiner höheren Energiedichte im Vergleich zu Ethanol ist Biobutanol als Energieträgerbesonders interessant und bietet sich z. B. als Produkt einer Bioraffinerie der 2. Generation an. Für die beschriebenen Experimente wird durch das Organosolv-Verfahren aufgeschlossenes Buchenholz verwendet. Der Faserstoff wird mithilfe von CTec2-Enzymen hydrolysiert, wobei der erhaltene Überstand eine Glucosekonzentration von 66 g L⁻¹ aufweist. Auf der Basis dieses Materials können mit Clostridium acetobutylicum Butanol-Ausbeuten erzielt werden, die mit denen unter Verwendung von reinen Zuckern vergleichbar sind. Dem Problem der hohen Produktinhibierung wird mit einer In-situ-Produktaufarbeitung begegnet. Mithilfe von Lösungsmittelimprägnierten Partikeln (SIPs) kann die Produktausbeute drastisch gesteigert werden, indem die gebildeten Lösungsmittel durch das auf dem Partikel imprägnierte Lösungsmittel während der Fermentation extrahiert werden. Zudem wird hierdurch die weitere Produktaufarbeitungstark vereinfacht.
Magnetic Resonance Imaging (MRI) of moving organs requires synchronization with physiological motion or flow, which dictate the viable window for data acquisition. To meet this challenge, this study proposes an acoustic gating device (ACG) that employs acquisition and processing of acoustic signals for synchronization while providing MRI compatibility, immunity to interferences with electro-magnetic and acoustic fields and suitability for MRI at high magnetic field strengths. The applicability and robustness of the acoustic gating approach is examined in a pilot study, where it substitutes conventional ECG-gating for cardiovascular MR. The merits and limitations of the ACG approach are discussed. Implications for MR imaging in the presence of physiological motion are considered including synchronization with other structure- or motion borne sounds.
Generating synthetic LiDAR point cloud data for object detection using the Unreal Game Engine
(2024)
Object detection based on artificial intelligence is ubiquitous in today’s computer vision research and application. The training of the neural networks for object detection requires large and high-quality datasets. Besides datasets based on image data, datasets derived from point clouds offer several advantages. However, training datasets are sparse and their generation requires a lot of effort, especially in industrial domains. A solution to this issue offers the generation of synthetic point cloud data. Based on the design science research method, the work at hand proposes an approach and its instantiation for generating synthetic point cloud data based on the Unreal Engine. The point cloud quality is evaluated by comparing the synthetic cloud to a real-world point cloud. Within a practical example the applicability of the Unreal Game engine for synthetic point cloud generation could be successfully demonstrated.
Cardiac MR (CMR) at ultrahigh (≥7.0 T) fields is regarded as one of the most challenging MRI applications. At 7.0 T image quality is not always exclusively defined by signal-to-noise ratio (SNR) and contrast-to-noise ratio (CNR). Detrimental effects bear the potential to spoil the signal-to-noise (SNR) and contrast-to-noise (CNR) benefits of cardiac MR (CMR) at 7.0 T. B₁⁺-inhomogeneities and signal voids represent the main challenges. Various pioneering coil concepts have been proposed to tackle these issues, enabling cardiac MRI at 7.0 T. This includes a trend towards an ever larger number of transmit and receive channels. This approach affords multi-dimensional B₁⁺ modulations to improve B₁⁺ shimming performance and to enhance RF efficiency. Also, parallel imaging benefits from a high number of receive channels enabling two-dimensional acceleration. Realizing the limitations of existing coil designs tailored for UHF CMR and recognizing the opportunities of a many element TX/RX channel architecture this work proposes a modular, two dimensional 32-channel transmit and receive array using loop elements and examines its efficacy for enhanced B¹+ homogeneity and improved parallel imaging performance.
The assessment of the right ventricle (RV) is a challenge in today's cardiology, but of growing clinical impact regarding patient prognosis in different cardiac diseases. The detection and differentiation of small wall motion abnormalities may help to enhance the differentiation of cardiomyopathies including Arrhythmogenic Rightventricular Cardiomyopathy. Cardiovascular magnetic resonance (CMR) at 1.5T is the accepted gold standard for RV quantification. The higher spatial resolution achievable at ultrahigh field strength (UHF) offers the potential to gain new insights into the structure and function of the RV. To approach this goal accurate RV chamber quantification at 7T has to be proven. Consequently this study examines the feasibility of assessment of RV dimensions and function at 7T using improved spatial resolution enabled by the intrinsic sensitivity gain of UHF CMR. For this purpose, a dedicated 16 channel TX/RX RF coil array is used together with 2D CINE fast gradient echo (FGRE) imaging. For comparison RV chamber quantification is conducted at 1.5T using a SSFP based state of the art clinical protocol.
In current clinical cardiovascular MR (CMR) practice cardiac motion is commonly dealt with using ECG based synchronization. However, ECG is corrupted by magneto-hydrodynamic (MHD) effects in magnetic fields. This leads to artifacts in the ECG trace and evokes severe T-wave elevations, which might be misinterpreted as R-waves resulting in erroneous triggering. At (ultra)high field strengths, the propensity of ECG recordings to MHD effects is further pronounced. Pulse oximetry (POX) being inherently sensitive to blood oxygenation provides an alternative approach for cardiac gating. However, due to the travel time of the blood the peak of maximum oxygenation and hence the trigger is delayed by approx. 300 ms with respect to the ECG's R-wave. Also the peak of maximum oxygenation shows a jitter of up to 65 ms. Alternative triggering approaches include acoustic cardiac triggering (ACT). In current clinical practice cardiac gating / triggering commonly relies on using single physiological signals only. Realizing this limitation this study proposes a combined triggering approach which exploits multiple physiological signals including ECG, POX or ACT to track cardiac activity. The feasibility of the coupled approach is examined for LV function assessment at 7.0 T. For this purpose, breath-held 2D-CINE imaging in conjunction with cardiac synchronization was performed paralleled by real time logging of physiological waveforms to track (mis)synchronization between the cardiac cycle and data acquisition. Combinations of the ECG, POX and ACT signals were evaluated and processed in real time to facilitate reliable trigger information.
Cardiac MR (CMR) is of proven clinical value but also an area of vigorous ongoing research since image quality is not always exclusively defined by signal-to-noise ratio (SNR) and contrast-to-noise ratio (CNR). Recent developments of CMR at 7.0 T have been driven by pioneering explorations into novel multichannel transmit and receive coil array technology to tackle the challenges B1+-field inhomogeneities, to offset specific-absorption rate (SAR) constraints and to reduce banding artifacts in SSFP imaging. For this study, recognition of the benefits and performance of local surface Tx/Rx-array structures recently established at 7.0 T inspired migration to 3.0 T, where RF inhomogeneities and SAR limitations encountered in routine clinical CMR, though somewhat reduced versus the 7.0 T situation, remain significant. For all these reasons, this study was designed to build and examine the feasibility of a local four channel Tx/Rx cardiac coil array for anatomical and functional cardiac imaging at 3.0 T. For comparison, a homebuilt 4 channel Rx cardiac coil array exhibiting the same geometry as the Tx/Rx coil and a Rx surface coil array were used.
With its need for high SNR and short acquisition times, Cardiac MRI (CMR) is an intriguing target application for ultrahigh field MRI. Due to the sheer size of the upper torso, however, the known RF issues of 7T MRI are also most prominent in CMR. Recent years brought substantial progress but the full potential of the ultrahigh field for CMR is yet to be exploited. Parallel transmission (pTx) is a promising approach in this context and several groups have already reported B1 shimming for 7T CMR. In such a static pTx application amplitudes and phases of all Tx channels are adjusted individually but otherwise imaging techniques established in current clinical practice 1.5 T and 3 T are applied. More advanced forms of pTx as spatially selective excitation (SSE) using Transmit SENSE promise additional benefits like faster imaging with reduced fields of view or improved SAR control. SSE requires the full dynamic capabilities of pTx, however, and for the majority of today's implemented pTx hardware the internal synchronization of the Tx array does not easily permit external triggering as needed for CMR. Here we report a software solution to this problem and demonstrate the feasibility of CINE CMR at 7 T using a Tx array.
We have developed a double-tuned ¹H/¹⁹F birdcage resonator dedicated for hand and wrist imaging at 7 T to locally image non-steroidal anti-inflammatory drugs (NSAID) such as 2-{[3-(Trifluoromethyl) phenyl]amino}benzoic acid. The preliminary in vivo images acquired by the double-tuned ¹H/¹⁹F birdcage resonator demonstrate the feasibility for ¹H/¹⁹F hand- and wrist-imaging at 7 T. While the diagnostic quality of the coil needs to be assessed in patients with inflammatory rheumatoid disease, first ¹⁹F images of the NSAID are encouraging, and point towards the prospect of applying ¹⁹F-MRI to visualize and quantify the concentration of therapeutically-active compound at the sites of inflammation.
Hydrogen is playing an increasingly important role in research and politics as an energy carrier of the future. Since hydrogen has commonly been produced from methane by steam reforming, the need for climate-friendly, alternative production routes is emerging. In addition to electrolysis, fermentative routes for the production of so-called biohydrogen are "green" alternatives. The application of microorganisms offers the advantage of sustainable production from renewable resources using easily manageable technologies. In this project, the hyperthermophilic, anaerobic microorganism Thermotoga neapolitana is used for the productio nof biohydrogen from renewable resources. The enzymatically hydrolyzed resources were used in fermentation leading to yield coefficients of 1.8 mole H₂ per mole glucose when using hydrolyzed straw and ryegrass supplemented with medium, respectively. These results are similar to the hydrogen yields when using Thermotoga basal medium with glucose (TBGY) as control group. In order to minimize the supplementation of the hydrolysate and thus increase the economic efficiency of the process, the essential media components were identified. The experiments revealed NaCl, KCl, and glucose as essential components for cell growth as well as biohydrogen production. When excluding NaCl, a decrease of 96% in hydrogen production occured.
The emerging environmental issues due to the use of fossil resources are encouraging the exploration of new renewable resources. Biomasses are attracting more interest due to the low environmental impacts, low costs, and high availability on earth. In this scenario, green biorefineries are a promising platform in which green biomasses are used as feedstock. Grasses are mainly composed of cellulose and hemicellulose, and lignin is available in a small amount. In this work, a perennial ryegrass was used as feedstock to develop a green bio-refinery platform. Firstly, the grass was mechanically pretreated, thus obtaining a press juice and a press cake fraction. The press juice has high nutritional values and can be employed as part of fermentation media. The press cake can be employed as a substrate either in enzymatic hydrolysis or in solid-state fermentation. The overall aim of this work was to demonstrate different applications of both the liquid and the solid fractions. For this purpose, the filamentous fungus A. niger and the yeast Y. lipolythica were selected for their ability to produce citric acid. Finally, the possibility was assessed to use the press juice as part of fermentation media to cultivate S. cerevisiae and lactic acid bacteria for ethanol and lactic acid fermentation.
Lolium perenne (perennial ryegrass) is aproductive and high-quality forage grass indigenous to Southern Europe, temperate Asia, and North Africa. Nowadays it is widespread and the dominant grass species on green areas in temperate climates. This abundant source of biomass is suitable for the development of bioeconomic processes because of its high cellulose and water-soluble carbohydrate content. In this work, novel breeds of the perennial ryegrass are being examined with regards to their quality parameters and biotechnological utilization options within the context of bioeconomy. Three processing operations are presented. In the first process, the perennial ryegrass is pretreated by pressing or hydrothermal extraction to derive glucosevia subsequent enzymatic hydrolysis of cellulose. A yield of up to 82 % glucose was achieved when using the hydrothermal ex-traction as pretreatment. In a second process, the ryegrass is used to produce lactic acid in high concentrations. The influence of the growth conditions and the cutting time on the carboxylic acid yield is investigated. A yield of lactic acid of above 150 g kg⁻¹ dry matter was achieved. The third process is to use Lolium perenne as a substrate in the fermentation of K. marxianus for the microbial production of single-cell proteins. The perennial ryegrass is screw-pressed and the press juice is used as medium. When supplementing the press juice with yeast media components, a biomass concentration of up to 16 g L⁻¹ could be achieved.
A method for the integrated extraction and separation of fatty acids from algae using supercritical CO2 is presented. Desmodesmus obliquus and Chlorella sorokiniana were used as algae. First, a method for chromatographic separation of fatty acids of different degrees of saturation was established and optimized. Then, an integrated method for supercritical extraction was developed for both algal species. It was also verified whether prior cell disruption was beneficial for extraction. In developing the method for chromatographic separation, statistical experimental design was used to determine the optimal parameter settings. The methanol content in the mobile phase proved to be the most important parameter for successful separation of the three unsaturated fatty acids oleic acid, linoleic acid, and linolenic acid. Supercritical extraction with dried algae showed that about four times more fatty acids can be extracted from C. sorokiniana relative to the dry mass used.
Wer A sagt, muss zumindest im Kaufrecht nicht immer B sagen: Es kommt nicht selten vor, dass sich in einem Kaufvertrag einerseits ein wirksamer Ausschluss der Gewährleistung des Verkäufers für Sachmängel findet, die Parteien aber andererseits gleichwohl eine Beschaffenheitsvereinbarung für bestimmte Eigenschaften vertraglich festlegen. In diesem Problemfeld führt eine aktuelle Entscheidung des BGH zu weiteren Klärungen für die Praxis (BGH, Urt. v. 10.4.2024 – VIII ZR 161/23, MDR 2024, 706). Der folgende Beitrag setzt sich mit den vielfältigen Aspekten der Entscheidung auseinander und erläutert, aus welchen Gründen der BGH dem Käufer einige goldene Brücken für einen Schadensersatzanspruch gebaut hat.
As one class of molecular imprinted polymers (MIPs), surface imprinted polymer (SIP)-based biosensors show great potential in direct whole-bacteria detection. Micro-contact imprinting, that involves stamping the template bacteria immobilized on a substrate into a pre-polymerized polymer matrix, is the most straightforward and prominent method to obtain SIP-based biosensors. However, the major drawbacks of the method arise from the requirement for fresh template bacteria and often non-reproducible bacteria distribution on the stamp substrate. Herein, we developed a positive master stamp containing photolithographic mimics of the template bacteria (E. coli) enabling reproducible fabrication of biomimetic SIP-based biosensors without the need for the “real” bacteria cells. By using atomic force and scanning electron microscopy imaging techniques, respectively, the E. coli-capturing ability of the SIP samples was tested, and compared with non-imprinted polymer (NIP)-based samples and control SIP samples, in which the cavity geometry does not match with E. coli cells. It was revealed that the presence of the biomimetic E. coli imprints with a specifically designed geometry increases the sensor E. coli-capturing ability by an “imprinting factor” of about 3. These findings show the importance of geometry-guided physical recognition in bacterial detection using SIP-based biosensors. In addition, this imprinting strategy was employed to interdigitated electrodes and QCM (quartz crystal microbalance) chips. E. coli detection performance of the sensors was demonstrated with electrochemical impedance spectroscopy (EIS) and QCM measurements with dissipation monitoring technique (QCM-D).
This study demonstrates the feasibility of applying free-breathing, cardiac-gated, susceptibility-weighted fast spin-echo imaging together with black blood preparation and navigator-gated respiratory motion compensation for anatomically accurate T₂ mapping of the heart. First, T₂ maps are presented for oil phantoms without and with respiratory motion emulation (T₂ = (22.1 ± 1.7) ms at 1.5 T and T₂ = (22.65 ± 0.89) ms at 3.0 T). T₂ relaxometry of a ferrofluid revealed relaxivities of R2 = (477.9 ± 17) mM⁻¹s⁻¹ and R2 = (449.6 ± 13) mM⁻¹s⁻¹ for UFLARE and multiecho gradient-echo imaging at 1.5 T. For inferoseptal myocardial regions mean T₂ values of 29.9 ± 6.6 ms (1.5 T) and 22.3 ± 4.8 ms (3.0 T) were estimated. For posterior myocardial areas close to the vena cava T₂-values of 24.0 ± 6.4 ms (1.5 T) and 15.4 ± 1.8 ms (3.0 T) were observed. The merits and limitations of the proposed approach are discussed and its implications for cardiac and vascular T₂-mapping are considered.
The simultaneous assessment of glottal dynamics and larynx position can be beneficial for the diagnosis of disordered voice or speech production and swallowing. Up to now, methods either concentrate on assessment of the glottis opening using optical, acoustical or electrical (electroglottography, EGG) methods, or on visualisation of the larynx position using ultrasound, computer tomography or magnetic resonance imaging techniques.
The method presented here makes use of a time-multiplex measurement approach of space-resolved transfer impedances through the larynx. The fast sequence of measurements allows a quasi simultaneous assessment of both larynx position and EGG signal using up to 32 transmit–receive signal paths. The system assesses the dynamic opening status of the glottis as well as the vertical and back/forward motion of the larynx.
Two electrode-arrays are used for the measurement of the electrical transfer impedance through the neck in different directions. From the acquired data the global and individual conductivity is calculated as well as a 2D point spatial representation of the minimum impedance.
The position information is shown together with classical EGG signals allowing a synchronous visual assessment of glottal area and larynx position. A first application to singing voice analysis is presented that indicate a high potential of the method for use as a non-invasive tool in the diagnosis of voice, speech, and swallowing disorders.
Objectives
Interest in cardiovascular magnetic resonance (CMR) at 7 T is motivated by the expected increase in spatial and temporal resolution, but the method is technically challenging. We examined the feasibility of cardiac chamber quantification at 7 T.
Methods
A stack of short axes covering the left ventricle was obtained in nine healthy male volunteers. At 1.5 T, steady-state free precession (SSFP) and fast gradient echo (FGRE) cine imaging with 7 mm slice thickness (STH) were used. At 7 T, FGRE with 7 mm and 4 mm STH were applied. End-diastolic volume, end-systolic volume, ejection fraction and mass were calculated.
Results
All 7 T examinations provided excellent blood/myocardium contrast for all slice directions. No significant difference was found regarding ejection fraction and cardiac volumes between SSFP at 1.5 T and FGRE at 7 T, while volumes obtained from FGRE at 1.5 T were underestimated. Cardiac mass derived from FGRE at 1.5 and 7 T was larger than obtained from SSFP at 1.5 T. Agreement of volumes and mass between SSFP at 1.5 T and FGRE improved for FGRE at 7 T when combined with an STH reduction to 4 mm.
Conclusions
This pilot study demonstrates that cardiac chamber quantification at 7 T using FGRE is feasible and agrees closely with SSFP at 1.5 T.
Background
To demonstrate the applicability of acoustic cardiac triggering (ACT) for imaging of the heart at ultrahigh magnetic fields (7.0 T) by comparing phonocardiogram, conventional vector electrocardiogram (ECG) and traditional pulse oximetry (POX) triggered 2D CINE acquisitions together with (i) a qualitative image quality analysis, (ii) an assessment of the left ventricular function parameter and (iii) an examination of trigger reliability and trigger detection variance derived from the signal waveforms.
Results
ECG was susceptible to severe distortions at 7.0 T. POX and ACT provided waveforms free of interferences from electromagnetic fields or from magneto-hydrodynamic effects. Frequent R-wave mis-registration occurred in ECG-triggered acquisitions with a failure rate of up to 30% resulting in cardiac motion induced artifacts. ACT and POX triggering produced images free of cardiac motion artefacts. ECG showed a severe jitter in the R-wave detection. POX also showed a trigger jitter of approximately Δt = 72 ms which is equivalent to two cardiac phases. ACT showed a jitter of approximately Δt = 5 ms only. ECG waveforms revealed a standard deviation for the cardiac trigger offset larger than that observed for ACT or POX waveforms.
Image quality assessment showed that ACT substantially improved image quality as compared to ECG (image quality score at end-diastole: ECG = 1.7 ± 0.5, ACT = 2.4 ± 0.5, p = 0.04) while the comparison between ECG vs. POX gated acquisitions showed no significant differences in image quality (image quality score: ECG = 1.7 ± 0.5, POX = 2.0 ± 0.5, p = 0.34).
Conclusions
The applicability of acoustic triggering for cardiac CINE imaging at 7.0 T was demonstrated. ACT's trigger reliability and fidelity are superior to that of ECG and POX. ACT promises to be beneficial for cardiovascular magnetic resonance at ultra-high field strengths including 7.0 T.
Purpose
To design and evaluate a four-channel cardiac transceiver coil array for functional cardiac imaging at 7T.
Materials and Methods
A four-element cardiac transceiver surface coil array was developed with two rectangular loops mounted on an anterior former and two rectangular loops on a posterior former. specific absorption rate (SAR) simulations were performed and a Burn:x-wiley:10531807:media:JMRI22451:tex2gif-stack-1 calibration method was applied prior to obtain 2D FLASH CINE (mSENSE, R = 2) images from nine healthy volunteers with a spatial resolution of up to 1 × 1 × 2.5 mm3.
Results
Tuning and matching was found to be better than 10 dB for all subjects. The decoupling (S21) was measured to be >18 dB between neighboring loops, >20 dB for opposite loops, and >30 dB for other loop combinations. SAR values were well within the limits provided by the IEC. Imaging provided clinically acceptable signal homogeneity with an excellent blood-myocardium contrast applying the Burn:x-wiley:10531807:media:JMRI22451:tex2gif-stack-2 calibration approach.
Conclusion
A four-channel cardiac transceiver coil array for 7T was built, allowing for cardiac imaging with clinically acceptable signal homogeneity and an excellent blood-myocardium contrast. Minor anatomic structures, such as pericardium, mitral, and tricuspid valves and their apparatus, as well as trabeculae, were accurately delineated.
Objective
The purpose of this study is to (i) design a small and mobile Magnetic field ALert SEnsor (MALSE), (ii) to carefully evaluate its sensors to their consistency of activation/deactivation and sensitivity to magnetic fields, and (iii) to demonstrate the applicability of MALSE in 1.5 T, 3.0 T and 7.0 T MR fringe field environments.
Methods
MALSE comprises a set of reed sensors, which activate in response to their exposure to a magnetic field. The activation/deactivation of reed sensors was examined by moving them in/out of the fringe field generated by 7TMR.
Results
The consistency with which individual reed sensors would activate at the same field strength was found to be 100% for the setup used. All of the reed switches investigated required a substantial drop in ambient magnetic field strength before they deactivated.
Conclusions
MALSE is a simple concept for alerting MRI staff to a ferromagnetic object being brought into fringe magnetic fields which exceeds MALSEs activation magnetic field. MALSE can easily be attached to ferromagnetic objects within the vicinity of a scanner, thus creating a barrier for hazardous situations induced by ferromagnetic parts which should not enter the vicinity of an MR-system to occur.
Spontaneous language has rarely been subjected to neuroimaging studies. This study therefore introduces a newly developed method for the analysis of linguistic phenomena observed in continuous language production during fMRI.
Most neuroimaging studies investigating language have so far focussed on single word or — to a smaller extent — sentence processing, mostly due to methodological considerations. Natural language production, however, is far more than the mere combination of words to larger units. Therefore, the present study aimed at relating brain activation to linguistic phenomena like word-finding difficulties or syntactic completeness in a continuous language fMRI paradigm. A picture description task with special constraints was used to provoke hesitation phenomena and speech errors. The transcribed speech sample was segmented into events of one second and each event was assigned to one category of a complex schema especially developed for this purpose. The main results were: conceptual planning engages bilateral activation of the precuneus. Successful lexical retrieval is accompanied – particularly in comparison to unsolved word-finding difficulties – by the left middle and superior temporal gyrus. Syntactic completeness is reflected in activation of the left inferior frontal gyrus (IFG) (area 44). In sum, the method has proven to be useful for investigating the neural correlates of lexical and syntactic phenomena in an overt picture description task. This opens up new prospects for the analysis of spontaneous language production during fMRI.
Purpose:
To investigate the feasibility of using magnetohydrodynamic (MHD) effects for synchronization of magnetic resonance imaging (MRI) with the cardiac cycle.
Materials and Methods:
The MHD effect was scrutinized using a pulsatile flow phantom at B0 = 7.0 T. MHD effects were examined in vivo in healthy volunteers (n = 10) for B0 ranging from 0.05–7.0 T. Noncontrast-enhanced MR angiography (MRA) of the carotids was performed using a gated steady-state free-precession (SSFP) imaging technique in conjunction with electrocardiogram (ECG) and MHD synchronization.
Results:
The MHD potential correlates with flow velocities derived from phase contrast MRI. MHD voltages depend on the orientation between B0 and the flow of a conductive fluid. An increase in the interelectrode spacing along the flow increases the MHD potential. In vivo measurement of the MHD effect provides peak voltages of 1.5 mV for surface areas close to the common carotid artery at B0 = 7.0 T. Synchronization of MRI with the cardiac cycle using MHD triggering is feasible. MHD triggered MRA of the carotids at 3.0 T showed an overall image quality and richness of anatomic detail, which is comparable to ECG-triggered MRAs.
Conclusion:
This feasibility study demonstrates the use of MHD effects for synchronization of MR acquisitions with the cardiac cycle. J. Magn. Reson. Imaging 2012;36:364–372. © 2012 Wiley Periodicals, Inc.
Purpose
To design and evaluate a modular transceiver coil array with 32 independent channels for cardiac MRI at 7.0T.
Methods
The modular coil array comprises eight independent building blocks, each containing four transceiver loop elements. Numerical simulations were used for B1+ field homogenization and radiofrequency (RF) safety validation. RF characteristics were examined in a phantom study. The array's suitability for accelerated high spatial resolution two-dimensional (2D) FLASH CINE imaging of the heart was examined in a volunteer study.
Results
Transmission field adjustments and RF characteristics were found to be suitable for the volunteer study. The signal-to-noise intrinsic to 7.0T together with the coil performance afforded a spatial resolution of 1.1 × 1.1 × 2.5 mm3 for 2D CINE FLASH MRI, which is by a factor of 6 superior to standardized CINE protocols used in clinical practice at 1.5T. The 32-channel transceiver array supports one-dimensional acceleration factors of up to R = 4 without impairing image quality significantly.
Conclusion
The modular 32-channel transceiver cardiac array supports accelerated and high spatial resolution cardiac MRI. The array is compatible with multichannel transmission and provides a technological basis for future clinical assessment of parallel transmission techniques at 7.0T.
A magnetic resonance tomography (MRT) apparatus (1) for the examination of a body (14) comprises parameter acquisition devices (13) for the acquisition of cardiovascular parameters of the body (14) and a control device (15) in communication with the parameter acquisition devices (13) for synchronizing the imaging, wherein the control device (15) is adapted to analyse the data of at least two parameter acquisition devices (13) and to output a control signal based on the analysis.
The concept of energy conversion into platform chemicals using bioelectrochemical systems (BES) has gained increasing attention in recent years, as the technology simultaneously provides an opportunity for sustainable chemical production and tackles the challenge of Power-to-X technologies. There are many approaches to realize the industrial scale of BES. One concept is to equip standard bioreactors with static electrodes. However, large installations resulted in a negative influence on various reactor parameters. In this study, we present a new single-chamber BES based on a stirred tank reactor in which the stirrer was replaced by a carbon fiber brush, performing the functions of the working electrode and the stirrer. The reactor is characterized in abiotic studies and electro-fermentations with Clostridium acetobutylicum. Compared to standard reactors an increase in butanol production of 20.14±3.66 % shows that the new BES can be efficiently used for bioelectrochemical processes.
New insights into the influence of pre-culture on robust solvent production of C. acetobutylicum
(2024)
Clostridia are known for their solvent production, especially the production of butanol. Concerning the projected depletion of fossil fuels, this is of great interest. The cultivation of clostridia is known to be challenging, and it is difficult to achieve reproducible results and robust processes. However, existing publications usually concentrate on the cultivation conditions of the main culture. In this paper, the influence of cryo-conservation and pre-culture on growth and solvent production in the resulting main cultivation are examined. A protocol was developed that leads to reproducible cultivations of Clostridium acetobutylicum. Detailed investigation of the cell conservation in cryo-cultures ensured reliable cell growth in the pre-culture. Moreover, a reason for the acid crash in the main culture was found, based on the cultivation conditions of the pre-culture. The critical parameter to avoid the acid crash and accomplish the shift to the solventogenesis of clostridia is the metabolic phase in which the cells of the pre-culture were at the time of inoculation of the main culture; this depends on the cultivation time of the pre-culture. Using cells from the exponential growth phase to inoculate the main culture leads to an acid crash. To achieve the solventogenic phase with butanol production, the inoculum should consist of older cells which are in the stationary growth phase. Considering these parameters, which affect the entire cultivation process, reproducible results and reliable solvent production are ensured.
Biomass from various types of organic waste was tested for possible use in hydrogen production. The composition consisted of lignified samples, green waste, and kitchen scraps such as fruit and vegetable peels and leftover food. For this purpose, the enzymatic pretreatment of organic waste with a combination of five different hydrolytic enzymes (cellulase, amylase, glucoamylase, pectinase and xylase) was investigated to determine its ability to produce hydrogen (H2) with the hydrolyzate produced here. In course, the anaerobic rod-shaped bacterium T. neapolitana was used for H2 production. First, the enzymes were investigated using different substrates in preliminary experiments. Subsequently, hydrolyses were carried out using different types of organic waste. In the hydrolysis carried out here for 48 h, an increase in glucose concentration of 481% was measured for waste loads containing starch, corresponding to a glucose concentration at the end of hydrolysis of 7.5 g·L−1. In the subsequent set fermentation in serum bottles, a H2 yield of 1.26 mmol H2 was obtained in the overhead space when Terrific Broth Medium with glucose and yeast extract (TBGY medium) was used. When hydrolyzed organic waste was used, even a H2 yield of 1.37 mmol could be achieved in the overhead space. In addition, a dedicated reactor system for the anaerobic fermentation of T. neapolitana to produce H2 was developed. The bioreactor developed here can ferment anaerobically with a very low loss of produced gas. Here, after 24 h, a hydrogen concentration of 83% could be measured in the overhead space.
Direct air capture (DAC) combined with subsequent storage (DACCS) is discussed as one promising carbon dioxide removal option. The aim of this paper is to analyse and comparatively classify the resource consumption (land use, renewable energy and water) and costs of possible DAC implementation pathways for Germany. The paths are based on a selected, existing climate neutrality scenario that requires the removal of 20 Mt of carbon dioxide (CO2) per year by DACCS from 2045. The analysis focuses on the so-called “low-temperature” DAC process, which might be more advantageous for Germany than the “high-temperature” one. In four case studies, we examine potential sites in northern, central and southern Germany, thereby using the most suitable renewable energies for electricity and heat generation. We show that the deployment of DAC results in large-scale land use and high energy needs. The land use in the range of 167–353 km2 results mainly from the area required for renewable energy generation. The total electrical energy demand of 14.4 TWh per year, of which 46% is needed to operate heat pumps to supply the heat demand of the DAC process, corresponds to around 1.4% of Germany's envisaged electricity demand in 2045. 20 Mt of water are provided yearly, corresponding to 40% of the city of Cologne‘s water demand (1.1 million inhabitants). The capture of CO2 (DAC) incurs levelised costs of 125–138 EUR per tonne of CO2, whereby the provision of the required energy via photovoltaics in southern Germany represents the lowest value of the four case studies. This does not include the costs associated with balancing its volatility. Taking into account transporting the CO2 via pipeline to the port of Wilhelmshaven, followed by transporting and sequestering the CO2 in geological storage sites in the Norwegian North Sea (DACCS), the levelised costs increase to 161–176 EUR/tCO2. Due to the longer transport distances from southern and central Germany, a northern German site using wind turbines would be the most favourable.
The successful implementation and continuous development of sustainable corporate-level solutions is a challenge. These are endeavours in which social, environmental, and financial aspects must be weighed against each other. They can prove difficult to handle and, in some cases, almost unrealistic. Concepts such as green controlling, IT, and manufacturing look promising and are constantly evolving. This paper aims to achieve a better understanding of the field of corporate sustainability (CS). It will evaluate the hypothesis by which Corporate Sustainability thrives, via being efficient, increasing the performance, and raising the value of the input of the enterprises to the resources used. In fact, Corporate Sustainability on the surface could seem to contradict the idea, which supports the understanding that it encourages the reduction of the heavy reliance on the use of natural resources, the overall environmental impact, and above all, their protection. To understand how the contradictory notion of CS came about, in this part of the paper, the emphasis is placed on providing useful insight to this regard. The first part of this paper summarizes various definitions, organizational theories, and measures used for CS and its derivatives like green controlling, IT, and manufacturing. Second, a case study is given that combines the aforementioned sustainability models. In addition to evaluating the hypothesis, the overarching objective of this paper is to demonstrate the use of green controlling, IT, and manufacturing in the corporate sector. Furthermore, this paper outlines the current challenges and possible directions for CS in the future.
This publication is intended to present the current state of research on the rebound effect. First, a systematic literature review is carried out to outline (current) scientific models and theories. Research Question 1 follows with a mathematical introduction of the rebound effect, which shows the interdependence of consumer behaviour, technological progress, and interwoven effects for both. Thereupon, the research field is analysed for gaps and limitations by a systematic literature review. To ensure quantitative and qualitative results, a review protocol is used that integrates two different stages and covers all relevant publications released between 2000 and 2019. Accordingly, 392 publications were identified that deal with the rebound effect. These papers were reviewed to obtain relevant information on the two research questions. The literature review shows that research on the rebound effect is not yet comprehensive and focuses mainly on the effect itself rather than solutions to avoid it. Research Question 2 finds that the main gap, and thus the limitations, is that not much research has been published on the actual avoidance of the rebound effect yet. This is a major limitation for practical application by decision-makers and politicians. Therefore, a theoretical analysis was carried out to identify potential theories and ideas to avoid the rebound effect. The most obvious idea to solve this problem is the theory of a Steady-State Economy (SSE), which has been described and reviewed.
Rapid development of virtual and data acquisition technology makes Digital Twin Technology (DT) one of the fundamental areas of research, while DT is one of the most promissory developments for the achievement of Industry 4.0. 48% percent of organisations implementing the Internet of Things are already using DT or plan to use DT in 2020. The global market for DT is expected to grow by 38 percent annually, reaching USD16 billion by 2023. In addition, the number of participating organisations using digital twins is expected to triple by 2022. DTs are characterised by the integration between physical and virtual spaces. The driving idea for DT is to develop, test and build our devices in a virtual environment. The objective of this paper is to study the impact of DT in the automotive industry on the new marketing logic. This paper outlines the current challenges and possible directions for the future DT in marketing. This paper will be helpful for managers in the industry to use the advantages and potentials of DT.
This paper uses a quantitative analysis to examine the interdependence and impact of resource rents on socio-economic development from 2002 to 2017. Nigeria and Norway have been chosen as reference countries due to their abundance of natural resources by similar economic performance, while the ranking in the Human Development Index differs dramatically. As the Human Development Index provides insight into a country’s cultural and socio-economic characteristics and development in addition to economic indicators, it allows a comparison of the two countries. The hypothesis presented and discussed in this paper was researched before. A qualitative research approach was used in the author’s master’s thesis “The Human Development Index (HDI) as a Reflection of Resource Abundance (using Nigeria and Norway as a case study)” in 2018. The management of scarce resources is an important aspect in the development of modern countries and those on the threshold of becoming industrialised nations. The effects of a mistaken resource management are not only of a purely economic nature but also of a social and socio-economic nature. In order to present a partial aspect of these dependencies and influences this paper uses a quantitative analysis to examine the interdependence and impact of resource rents on socio-economic development from 2002 to 2017. Nigeria and Norway have been chosen as reference countries due to their abundance of natural resources by similar economic performance, while the ranking in the Human Development Index differs significantly. As the Human Development Index provides insight into a country’s cultural and socio-economic characteristics and development in addition to economic indicators, it allows a comparison of the two countries. This paper found out in a holistic perspective that (not or poorly managed) resource wealth in itself has a negative impact on socio-economic development and significantly reduces the productivity of the citizens of a state. This is expressed in particular for the years 2002 till 2017 in a negative correlation of GDP per capita and HDI value with the share respectively the size of resources in the GDP of a country.
The following article deals with the basic principles of intercultural management and possible improvements in terms of cultural, ethnic and gender diversification. The results are exemplarily applied to a bank located in Germany. The aim of this paper is to find out to what extent intercultural management could improve the productivity of Relatos-Bank in dealing with foreign employees or employees with a different cultural background. To achieve this goal, the authors con-duct a literature research. The main sources of information are books, journal articles and internet sources. It becomes clear that especially the different perceptions of different generations have a potential for conflict, which can be counteracted by applying presented scientific models. Equalizing the salaries of female and male employees and equalizing the rights and distribution of power could also be the key to becoming an open-minded, dynamic and fair organization that is pre-pared for the rapidly changing environment in which it operates.
The presented paper gives an overview of the most important and most common theories and concepts from the economic field of organisational change and is also enriched with quantitative publication data, which underlines the relevance of the topic. In particular, the topic presented is interwoven in an interdisciplinary way with economic psychological models, which are underpinned within the models with content from leading scholars in the field. The pace of change in companies is accelerating, as is technological change in our society. Adaptations of the corporate structure, but also of management techniques and tasks, are therefore indispensable. This includes not only the right approaches to employee motivation, but also the correct use of intrinsic and extrinsic motivational factors. Based on the hypothesis put forward by the scientist and researcher Rollinson in his book “Organisational behaviour and analysis” that managers believe motivational resources are available at all times, socio-economic and economic psychological theories are contrasted here in order to critically examine this statement. In addition, a fictitious company was created as a model for this work in order to illustrate the effects of motivational deficits in practice. In this context, the theories presented are applied to concrete problems within the model and conclusions are drawn about their influence and applicability. This led to the conclusion that motivation is a very individual challenge for each employee, which requires adapted and personalised approaches. On the other hand, the recommendations for action for supervisors in the case of motivation deficits also cannot be answered in a blanket manner, but can only be solved with the help of professional, expert-supported processing due to the economic-psychological realities of motivation. Identifying, analysing and remedying individual employee motivation deficits is, according to the authors, a problem and a challenge of great importance, especially in the context of rapidly changing ecosystems in modern companies, as motivation also influences other factors such as individual productivity. The authors therefore conclude that good motivation through the individual and customised promotion and further training of employees is an important point for achieving important corporate goals in order to remain competitive on the one hand and to create a productive and pleasant working environment on the other.
Die Energiewende wird häufig als „nachhaltig“ bezeichnet, das genaue Begriffsverständnis
bleibt jedoch vage. Diese Transformation von fossilen und nuklearen hin zu erneuerbaren
Energiequellen steht im Fokus der Treibhausgasneutralität. So soll dem fortschreitenden
Klimawandel entgegengetreten werden.
Das Thema der vorliegenden Arbeit ist die Definition eines möglichen Verständnisses von
„Nachhaltigkeit“ in der Energiewende des deutschen Stromsektors. Die leitenden
Forschungsfragen lauten: Was kann im Zusammenhang mit der Energiewende im
Stromsektor Deutschlands unter Nachhaltigkeit verstanden werden? Inwieweit unterscheidet
sich dieses Verständnis von der bisherigen Herangehensweise?
Die Datenbasis zur Beantwortung dieser liefern sechs leitfadengestützte
Expert:inneninterviews. Als Analysemethode dient die inhaltliche Strukturierung nach
Mayring (2015).
Die qualitative Studie hat gezeigt, dass eine nachhaltige Energiewende den Menschen und
die Natur zentralisiert. Weiter aufgeschlüsselt stehen die drei Nachhaltigkeitsdimensionen
und die Generationengerechtigkeit. Dabei dient die ökonomische Dimension der sozialen
und ökologischen. Wichtig sind die Inklusion und Beteiligung von Bevölkerung,
Unternehmen und Politik. Gleichzeitig ist sie Herausforderung und Chance für einen
positiven gesellschaftlichen Wandel. Technisch dienen Windenergie- und
Photovoltaikanlagen als Energielieferanten und Wasserstoffsysteme als Zwischenspeicher,
Stabilitätssicherung und zur Kopplung der Sektoren. Damit ist Nachhaltigkeit die Chance,
die Energiewende richtig zu gestalten und damit über Klimaneutralität hinauszugehen
Today’s society is undergoing a paradigm shift driven by the megatrend of sustainability. This undeniably affects all areas of Western life. This paper aims to find out how the luxury industry is dealing with this change and what adjustments are made by the companies. For this purpose, interviews were conducted with managers from the luxury industry, in which they were asked about specific measures taken by their companies as well as trends in the industry. In a subsequent evaluation, the trends in the luxury industry were summarized for the areas of ecological, social, and economic sustainability. It was found that the area of environmental sustainability is significantly more focused than the other sub-areas. Furthermore, the need for a customer survey to validate the industry-based measures was identified.
Unmanned Aerial Vehicles (UAV) constantly gain in versatility. However, more reliable path planning algorithms are required until full autonomous UAV operation is possible. This work investigates the algorithm 3DVFH* and analyses its dependency on its cost function weights in 2400 environments. The analysis shows that the 3DVFH* can find a suitable path in every environment. However, a particular type of environment requires a specific choice of cost function weights. For minimal failure, probability interdependencies between the weights of the cost function have to be considered. This dependency reduces the number of control parameters and simplifies the usage of the 3DVFH*. Weights for costs associated with vertical evasion (pitch cost) and vicinity to obstacles (obstacle cost) have the highest influence on the failure probability of the local path planner. Environments with mainly very tall buildings (like large American city centres) require a preference for horizontal avoidance manoeuvres (achieved with high pitch cost weights). In contrast, environments with medium-to-low buildings (like European city centres) benefit from vertical avoidance manoeuvres (achieved with low pitch cost weights). The cost of the vicinity to obstacles also plays an essential role and must be chosen adequately for the environment. Choosing these two weights ideal is sufficient to reduce the failure probability below 10%.
Lifting propellers are of increasing interest for Advanced Air Mobility. All propellers and rotors are initially twisted beams, showing significant extension–twist coupling and centrifugal twisting. Torsional deformations severely impact aerodynamic performance. This paper presents a novel approach to assess different reasons for torsional deformations. A reduced-order model runs large parameter sweeps with algebraic formulations and numerical solution procedures. Generic beams represent three different propeller types for General Aviation, Commercial Aviation, and Advanced Air Mobility. Simulations include solid and hollow cross-sections made of aluminum, steel, and carbon fiber-reinforced polymer. The investigation shows that centrifugal twisting moments depend on both the elastic and initial twist. The determination of the centrifugal twisting moment solely based on the initial twist suffers from errors exceeding 5% in some cases. The nonlinear parts of the torsional rigidity do not significantly impact the overall torsional rigidity for the investigated propeller types. The extension–twist coupling related to the initial and elastic twist in combination with tension forces significantly impacts the net cross-sectional torsional loads. While the increase in torsional stiffness due to initial twist contributes to the overall stiffness for General and Commercial Aviation propellers, its contribution to the lift propeller’s stiffness is limited. The paper closes with the presentation of approximations for each effect identified as significant. Numerical evaluations are necessary to determine each effect for inhomogeneous cross-sections made of anisotropic material.
Electronic cigarettes (e-cigarettes) have become popular worldwide with the market growing exponentially in some countries. The absence of product standards and safety regulations requires urgent development of analytical methodologies for the holistic control of the growing diversity of such products. An approach based on low-field nuclear magnetic resonance (LF-NMR) at 80 MHz is presented for the simultaneous determination of key parameters: carrier solvents (vegetable glycerine (VG), propylene glycol (PG) and water), total nicotine as well as free-base nicotine fraction. Moreover, qualitative and quantitative determination of fourteen weak organic acids deliberately added to enhance sensory characteristics of e-cigarettes was possible. In most cases these parameters can be rapidly and conveniently determined without using any sample manipulation such as dilution, extraction or derivatization steps. The method was applied for 37 authentic e-cigarettes samples. In particular, eight different organic acids with the content up to 56 mg/mL were detected. Due to its simplicity, the method can be used in routine regulatory control as well as to study release behaviour of nicotine and other e-cigarettes constituents in different products.
In the context of the increasing digitalization, the Internet of Things (IoT) is seen as a technological driver through which completely new business models can emerge in the interaction of different players. Identified key players include traditional industrial companies, municipalities and telecommunications companies. The latter, by providing connectivity, ensure that small devices with tiny batteries can be connected almost anywhere and directly to the Internet. There are already many IoT use cases on the market that provide simplification for end users, such as Philips Hue Tap. In addition to business models based on connectivity, there is great potential for information-driven business models that can support or enhance existing business models. One example is the IoT use case Park and Joy, which uses sensors to connect parking spaces and inform drivers about available parking spaces in real time. Information-driven business models can be based on data generated in IoT use cases. For example, a telecommunications company can add value by deriving more decision-relevant information – called insights – from data that is used to increase decision agility. In addition, insights can be monetized. The monetization of insights can only be sustainable, if careful attention is taken and frameworks are considered. In this chapter, the concept of information-driven business models is explained and illustrated with the concrete use case Park and Joy. In addition, the benefits, risks and framework conditions are discussed.
Analyzing thermodynamic non-equilibrium processes, like the laminar and turbulent fluid flow, the dissipation is a key parameter with a characteristic minimum condition. That is applied to characterize laminar and turbulent behaviour of the Couette flow, including its transition in both directions. The Couette flow is chosen as the only flow form with constant shear stress over the flow profile, being laminar, turbulent or both. The local dissipation defines quantitative and stable criteria for the transition and the existence of turbulence. There are basic results: The Navier Stokes equations cannot describe the experimental flow profiles of the turbulent Couette flow. But they are used to quantify the dissipation of turbulent fluctuation. The dissipation minimum requires turbulent structures reaching maximum macroscopic dimensions, describing turbulence as a “non-local” phenomenon. At the transition the Couette flow profiles and the shear stress change by a factor ≅ 5 due to a change of the “apparent” turbulent viscosity by a calculated factor ≅ 27. The resulting difference of the laminar and the turbulent profiles results in two different Reynolds numbers and different loci of transition, which are identified by calculation.
The minimum dissipation requirement of the thermodynamics of irreversible processes is applied to characterize the existence of laminar and non-laminar, and the co-existence of laminar and turbulent flow zones. Local limitations of the different zones and three different forms of transition are defined. For the Couette flow a non-local “corpuscular” flow mechanism explains the logarithmic law-of-the-wall, maximum turbulent dimensions and a value x=0,415 for the v. Kármán constant. Limitations of the logarithmic law near the wall and in the centre of the experiment are interpreted.
This work presents the Multi-Bees-Tracker (MBT3D) algorithm, a Python framework implementing a deep association tracker for Tracking-By-Detection, to address the challenging task of tracking flight paths of bumblebees in a social group. While tracking algorithms for bumblebees exist, they often come with intensive restrictions, such as the need for sufficient lighting, high contrast between the animal and background, absence of occlusion, significant user input, etc. Tracking flight paths of bumblebees in a social group is challenging. They suddenly adjust movements and change their appearance during different wing beat states while exhibiting significant similarities in their individual appearance. The MBT3D tracker, developed in this research, is an adaptation of an existing ant tracking algorithm for bumblebee tracking. It incorporates an offline trained appearance descriptor along with a Kalman Filter for appearance and motion matching. Different detector architectures for upstream detections (You Only Look Once (YOLOv5), Faster Region Proposal Convolutional Neural Network (Faster R-CNN), and RetinaNet) are investigated in a comparative study to optimize performance. The detection models were trained on a dataset containing 11359 labeled bumblebee images. YOLOv5 reaches an Average Precision of AP = 53, 8%, Faster R-CNN achieves AP = 45, 3% and RetinaNet AP = 38, 4% on the bumblebee validation dataset, which consists of 1323 labeled bumblebee images. The tracker’s appearance model is trained on 144 samples. The tracker (with Faster R-CNN detections) reaches a Multiple Object Tracking Accuracy MOTA = 93, 5% and a Multiple Object Tracking Precision MOTP = 75, 6% on a validation dataset containing 2000 images, competing with state-of-the-art computer vision methods. The framework allows reliable tracking of different bumblebees in the same video stream with rarely occurring identity switches (IDS). MBT3D has much lower IDS than other commonly used algorithms, with one of the lowest false positive rates, competing with state-of-the-art animal tracking algorithms. The developed framework reconstructs the 3-dimensional (3D) flight paths of the bumblebees by triangulation. It also handles and compares two alternative stereo camera pairs if desired.
Electrolyte-insulator-semiconductor capacitors (EISCAP) belong to field-effect sensors having an attractive transducer architecture for constructing various biochemical sensors. In this study, a capacitive model of enzyme-modified EISCAPs has been developed and the impact of the surface coverage of immobilized enzymes on its capacitance-voltage and constant-capacitance characteristics was studied theoretically and experimentally. The used multicell arrangement enables a multiplexed electrochemical characterization of up to sixteen EISCAPs. Different enzyme coverages have been achieved by means of parallel electrical connection of bare and enzyme-covered single EISCAPs in diverse combinations. As predicted by the model, with increasing the enzyme coverage, both the shift of capacitance-voltage curves and the amplitude of the constant-capacitance signal increase, resulting in an enhancement of analyte sensitivity of the EISCAP biosensor. In addition, the capability of the multicell arrangement with multi-enzyme covered EISCAPs for sequentially detecting multianalytes (penicillin and urea) utilizing the enzymes penicillinase and urease has been experimentally demonstrated and discussed.
This article addresses the need for an innovative technique in plasma shaping, utilizing antenna structures, Maxwell’s laws, and boundary conditions within a shielded environment. The motivation lies in exploring a novel approach to efficiently generate high-energy density plasma with potential applications across various fields. Implemented in an E01 circular cavity resonator, the proposed method involves the use of an impedance and field matching device with a coaxial connector and a specially optimized monopole antenna. This setup feeds a low-loss cavity resonator, resulting in a high-energy density air plasma with a surface temperature exceeding 3500 o C, achieved with a minimal power input of 80 W. The argon plasma, resembling the shape of a simple monopole antenna with modeled complex dielectric values, offers a more energy-efficient alternative compared to traditional, power-intensive plasma shaping methods. Simulations using a commercial electromagnetic (EM) solver validate the design’s effectiveness, while experimental validation underscores the method’s feasibility and practical implementation. Analyzing various parameters in an argon atmosphere, including hot S -parameters and plasma beam images, the results demonstrate the successful application of this technique, suggesting its potential in coating, furnace technology, fusion, and spectroscopy applications.
Next-generation aircraft designs often incorporate multiple large propellers attached along the wingspan (distributed electric propulsion), leading to highly flexible dynamic systems that can exhibit aeroelastic instabilities. This paper introduces a validated methodology to investigate the aeroelastic instabilities of wing–propeller systems and to understand the dynamic mechanism leading to wing and whirl flutter and transition from one to the other. Factors such as nacelle positions along the wing span and chord and its propulsion system mounting stiffness are considered. Additionally, preliminary design guidelines are proposed for flutter-free wing–propeller systems applicable to novel aircraft designs. The study demonstrates how the critical speed of the wing–propeller systems is influenced by the mounting stiffness and propeller position. Weak mounting stiffnesses result in whirl flutter, while hard mounting stiffnesses lead to wing flutter. For the latter, the position of the propeller along the wing span may change the wing mode shapes and thus the flutter mechanism. Propeller positions closer to the wing tip enhance stability, but pusher configurations are more critical due to the mass distribution behind the elastic axis.
A novel method to determine the extruded length of a metallic wire for a directed energy deposition (DED) process using a microwave (MW) plasma jet with a straight-through wire feed is presented. The method is based on the relative comparison of the measured frequency response obtained by the large-signal scattering parameter (Hot-S) technique. In the practical working range, repeatability of less than 6% for a nonactive plasma and 9% for the active plasma state is found. Measurements are conducted with a focus on a simple solution to decrease the processing time and reduce the integration time of the process into the existing hardware. It is shown that monitoring a single frequency for magnitude and phase changes is sufficient to achieve good accuracy. A combination of different measurement values to determine the length is possible. The applicability to different diameter of the same material is shown as well as a contact detection of the wire and metallic substrate.
This paper investigates the interior transmission problem for homogeneous media via eigenvalue trajectories parameterized by the magnitude of the refractive index. In the case that the scatterer is the unit disk, we prove that there is a one-to-one correspondence between complex-valued interior transmission eigenvalue trajectories and Dirichlet eigenvalues of the Laplacian which turn out to be exactly the trajectorial limit points as the refractive index tends to infinity. For general simply-connected scatterers in two or three dimensions, a corresponding relation is still open, but further theoretical results and numerical studies indicate a similar connection.
06| Warum es gemeinsam besser geht
10| Interview
14| Wer ist hier der Boss?
18| Schnittstelle zwischen Mensch und Technik
22| Zweite Heimat Jülich
28| Zwischen Angst und Hoffnung
32| Eine Sternstunde für die FH Aachen
36| Gegen alle Widerstände
38| Ein Ort, der bleibt
42| Der Aufblühende
46| Der Computer sitzt am Steuer
52| Da geht das Herz auf
54| Hoch hinaus
58| Beratungsangebote
60| Das alte Schätzchen
CardboardCastle
(2024)
„CardboardCastle“ ist ein 3D-Animationsfilm. Der Film zeigt die lebendig gewordene Welt zweier Königreiche aus Pappe, die in einem Streit um einen magischen Zauberstab verwickelt sind. Das Projekt beweist, dass es möglich ist, mit der Software „Blender“ einen vollwertigen und hochwertigen 3D-Animationsfilm zu erstellen. Dabei wurden alle Assets bis auf Texturen selbst hergestellt. Die virtuelle Pappe spielt hierbei eine fundamentale Rolle, für diese wurde ein vollkommen neuer Workflow entwickelt, welcher es ermöglicht, realistische Pappe zu visualisieren. „CardboardCastle“ setzt auf eine cinematische Inszenierung von Licht und vereint technisches Wissen mit unterhaltenden Inhalten. Dabei zeigt er die kindliche Vorstellungskraft und lädt die Zuschauer ein, sich an ihre eigenen kindlichen Fantasien zu erinnern.
»Unerwünscht« widmet sich einer Art von architektonischer Gestaltung, die auf tückische Weise als »defensive Architektur« bezeichnet wird. In Form einer Zeitung bietet sie einen umfassenden Einblick in das Thema und gewährt einen vielseitigen Blick in eine Thematik, die im Interesse der Verantwortlichen lieber im Verborgenen geblieben wäre. Defensive Architektur bezeichnet strategische Baumaßnahmen in der Stadt- und Bauplanung, die darauf abzielen, unerwünschte Personengruppen durch unpraktisches oder unbequemes Design von bestimmten Orten fernzuhalten. Diese Maßnahmen richten sich beispielsweise gegen obdachlose Menschen, Jugendliche oder Skateboarder*innen. Die überwiegende Mehrheit der Bevölkerung ist sich weder der Existenz von solchen architektonischen Maßnahmen noch ihrer Auswirkungen auf das Leben der Betroffenen bewusst. »Unerwünscht« zielt darauf ab, diese Lücke in der öffentlichen Wahrnehmung zu schließen.
Budzi Budzi
(2024)
Mit über 1300 Büdchen in 86 Veedeln ist Köln Deutschlands Kiosk-Hauptstadt. Sie sind ein prägendes Element von Nachbarschaften und gehören zum Kölner Stadtbild einfach dazu wie der Dom und der Rhein. Durch Anekdoten, Interviews, Beiträge zur Popkultur, alte Fotografien, Momentaufnahmen und vertraute Grafiken sowie einer festen Formsprache entsteht das erste Büdchenmagazin für Köln. Das Periodikum erscheint alle drei Monate und liegt kostenfrei in den Büdchen aus. Es ist eine Publikation die beweist, dass Büdchen mehr als gängige Verkaufsstellen sind, sondern Knotenpunkte unserer Gesellschaft.
Lehrmaterial für den Tiroler Skilehrerverband: Konzeption für eine crossmediale
Neugestaltung
(2024)
Der Tiroler Skilehrerverband bereitet angehende Skilehrer:innen auf die verschiedenen Schneesportlehrer-Prüfungen vor. Skilehrer:innen spielen eine entscheidende Rolle im Erfolg des Wintertourismus, was ihre gesellschaftliche und wirtschaftliche Relevanz unterstreicht. Die zeitgemäße Neugestaltung des Lehrmaterials soll eine effektive Vermittlung von Lerninhalten ermöglichen. Durch die Kombination von Informationsdesign, Corporate Design und Editorial Design wird die Verständlichkeit und Attraktivität des Materials gesteigert. Die Integration einer Lernapp ermöglicht eine interaktive und multimediale Lernerfahrung sowie mehr Flexibilität für die Lernenden. Die crossmediale Neugestaltung wirkt den Problemen veralteter Darstellungsformen entgegen. Es wird deutlich, dass gut gestaltetes Lehrmaterial bei gleichbleibenden Inhalten zu einer besseren Lernerfahrung führt.
In einer Welt, die von ständiger Vernetzung und sozialen Medien geprägt ist, gibt es eine spürbare Lücke für Menschen, die sich für die »Streetwear-Culture« interessieren. Viele junge Menschen, die von Fashion, Streetwear und der damit einhergehenden Kultur fasziniert sind, stoßen in ihrem direkten Umfeld oft auf Schwierigkeiten, Gleichgesinnte zu finden. CSTHELABEL hat es sich zur Aufgabe gemacht, die lebendige Streetwear-Community zu stärken und weiter zu fördern. CSTHEMAG ist ein Projekt, das in Kollaboration mit dem Gründer von CSTHELABEL entstanden ist. Es wurde eine Nullnummer für die erste Ausgabe des Magazins konzipiert, gestaltet und produziert. Diese beinhaltet Interviews mit Content-Creatorn aus der Community, jungen Modeschöpfer:innen sowie einen Einblick in vergangene Events und Pop-Ups. Das Magazin bietet Mitwirkenden und zukünftig Interessierten einen Raum in einem für das Label neuen Medium und schafft die Möglichkeit, ihre Stimmen zu stärken. CSTHEMAG verpflichtet sich gegenüber der lebendigen Community, eine eigene Plattform zu bieten, auf der ihre einzigartigen Talente, Geschichten und Inspirationen zum Ausdruck kommen.
Der Rettungsdienst ist rund um die Uhr bei medizinischen Notfällen im Einsatz. Wie aber ist dieser organisiert? Was belastet die Mitarbeiter*innen im Berufsalltag? Und wie kann man die Rettungskräfte unterstützen? „112–WENN HELFER HILFE BRAUCHEN“ bietet einen sachlichen Einblick in die Welt des Rettungsdienstes und der Ersten Hilfe. Mit kurz gefassten Fakten und Illustrationen richtet sich das Projekt vor allem an Jugendliche und junge Erwachsene. Ziel ist es, mehr Verständnis und Wertschätzung in der Gesellschaft für diese Berufsgruppe zu schaffen. Zusätzlich soll es die Leser*innen ermutigen, im Ernstfall angemessen zu handeln und „Leben zu retten“. Denn jeder kann in eine Notsituation geraten und auf den Rettungsdienst und Erste Hilfe angewiesen sein. Je früher man sich mit der Thematik beschäftigt, desto besser ist man im Ernstfall vorbereitet.
"Out of the Box" ist ein Dokumentarfilm und bietet einen Einblick in die Welt des "Cardistry". Der Schwerpunkt liegt auf dieser Nischenkunst und -kultur der visuell ansprechenden Kartenmanipulation. Der Film beleuchtet den Beginn, die Entwicklung und die lebendige Gemeinschaft hinter dieser einzigartigen Kunstform. Darüber hinaus werden Abgrenzungen, Ursprünge und Ähnlichkeiten zur Kartenmagie erforscht.
Invisible Cities
(2024)
Diese Arbeit präsentiert eine Neuinterpretation des Romans "Invisible Cities" von Italo Calvino in einem handgefertigten, künstlerischen Buchobjekt. Seit der Erstveröffentlichung des italienischen Literaturklassikers orientieren sich jegliche Neuauflagen an der Originalfassung. Die klassisch gestaltete Urversion wird der komplexen und eindrucksvollen Geschichte nicht mehr gerecht. Die Erzählung findet auf mehreren Ebenen statt, die durch verschiedene Papiersorten repräsentiert werden. Die Lesenden wissen somit immer, wo sie sich auf ihrer Reise durch die traumhaften und surrealen Städte befinden. Das Buch enthält mehrere Illustrationen auf Transparentpapierbögen, welche die Stadtbeschreibungen begleiten. Der besondere Fokus der Arbeit lag in den Illustrationen und der technischen und handwerklichen Umsetzung der Bindung.
The artificial olfactory image was proposed by Lundström et al. in 1991 as a new strategy for an electronic nose system which generated a two-dimensional mapping to be interpreted as a fingerprint of the detected gas species. The potential distribution generated by the catalytic metals integrated into a semiconductor field-effect structure was read as a photocurrent signal generated by scanning light pulses. The impact of the proposed technology spread beyond gas sensing, inspiring the development of various imaging modalities based on the light addressing of field-effect structures to obtain spatial maps of pH distribution, ions, molecules, and impedance, and these modalities have been applied in both biological and non-biological systems. These light-addressing technologies have been further developed to realize the position control of a faradaic current on the electrode surface for localized electrochemical reactions and amperometric measurements, as well as the actuation of liquids in microfluidic devices.
Das Ziel der digitalen Arztpraxis-Management-App „PraXma“ ist es, die Organisation von Arztpraxen, sowie auch das Patient:innen- und Terminmanagement einer Praxis effizienter und reibungsloser zu gestalten. Da 83 Prozent der Patient:innen bei der Digitalisierung des deutschen Gesundheitswesens Nachholbedarf sehen, besteht ein erheblicher Bedarf an Weiterentwicklung in dieser Branche. „PraXma“ gewährleistet Patient:innen mithilfe verschiedener Funktionen einen angenehmeren Arztbesuch. Dazu zählen die patientenorientierte Terminvergabe, der kategorisierte Überblick über Vitalwerte und Pässe und die Einsicht in persönliche Dokumente, wie Befunde, Rezepte und mehr. Auch Ärzt:innen profitieren durch „PraXma“ von einer Automatisierung ihrer alltäglichen Abläufe und minimieren so Überstunden und Stress.
Gamifizierte Online-Schulung zur IT-Sicherheit : Konzeption & Gestaltung verschiedener Ansätze
(2024)
Das Ziel der webbasierten, gamifizierten Schulung ist die Awareness der IT-Sicherheit für Studierende. Das Verhalten der Studierenden soll nachhaltig geändert werden, damit zukünftige Cyberangriffe weniger wirksam werden. Im Mittelpunkt steht ein spannendes und motivierendes Konzept auf den Grundlagen des Game Based Learnings, das z. B. mit Interactives arbeitet. Zur Stärkung des Risiko-Bewusstseins wurde eine Roadmap entwickelt, die wie ein Spielbrett Zusammenhänge, aber auch den Fortschritt der Schulung aufzeigt. So entstand zunächst in interdisziplinärer Zusammenarbeit mit einer Wirtschaftsinformatik-Studentin ein technischer Prototyp. Darauf aufbauend wurden weitere konzeptionelle und visuelle Ansätze entwickelt, die das breite Spektrum von Game Based Learning zeigen. Dieses realitätsnahe Projekt zeigt zukunftsweisende Lernumgebungen auf.
Dieses Projekt hat zum Ziel, umfassend über Climate Engineering-Maßnahmen zu informieren und dabei insbesondere ihre Funktionsweise, Kosten und Risiken darzustellen. Die entstandene Plattform "Die Erde abkühlen!" bietet einen Einblick in die Lösungsansätze des Climate Engineerings durch die Verwendung von Storytelling. Sie ermöglicht Nutzer:innen einen Überblick über den aktuellen Stand der Klimaerwärmung sowie den Vergleich von Climate Engineering-Maßnahmen. Ein entwickeltes Bewertungssystem auf Grundlage der "Royal Society" sowie interaktive Infografiken geben Nutzer:innen einen umfassenden Einblick. Das Hauptziel des Projekts ist die digitale Transformation der Climate Engineering-Lösungsansätze. Dabei geht es nicht nur darum, über die Folgen der Klimaerwärmung zu informieren, sondern auch konkrete Lösungen aufzuzeigen. Durch die Entwicklung eines innovativen Storytellings wird die Thematik nicht nur dramaturgisch präsentiert, sondern ermöglicht es den Nutzer:innen auch, ihre eigene Wissensvertiefung zu steuern.
Die fotografische Arbeit "Almanya" veranschaulicht Teilaspekte der türkischen Kultur anhand von Repräsentantinnen und Repräsentanten der türkeistämmigen Community in Deutschland. Mit einem Fokus auf Kulinarik und Formen des Zusammenlebens werden Menschen mit türkischen Wurzeln porträtiert, sodass am Ende ein Einblick in deren Lebens- und Gedankenwelt ermöglicht wird und kulinarische Brücken zwischen Deutschen und der türkischen Kultur gebaut werden. Die enthaltene Botschaft, welche das Projekt den Rezipient:innen überbringt, ist in einem multikulturellen Land wie Deutschland von großer Wichtigkeit für gegenseitiges Verständnis und bildet den Boden für ein harmonisches Miteinander.