Refine
Year of publication
- 2010 (331) (remove)
Institute
- Fachbereich Medizintechnik und Technomathematik (68)
- Fachbereich Wirtschaftswissenschaften (41)
- Fachbereich Elektrotechnik und Informationstechnik (36)
- IfB - Institut für Bioengineering (36)
- Fachbereich Energietechnik (35)
- Fachbereich Chemie und Biotechnologie (34)
- Fachbereich Maschinenbau und Mechatronik (31)
- Fachbereich Luft- und Raumfahrttechnik (24)
- Fachbereich Bauingenieurwesen (23)
- INB - Institut für Nano- und Biotechnologien (23)
Has Fulltext
- no (331) (remove)
Document Type
- Article (177)
- Conference Proceeding (67)
- Book (37)
- Part of a Book (20)
- Conference: Meeting Abstract (12)
- Patent (7)
- Report (4)
- Other (2)
- Contribution to a Periodical (1)
- Doctoral Thesis (1)
Keywords
- Geschichte (2)
- avalanche (2)
- Adsorbentien (1)
- Cardiovascular MRI (1)
- Cardiovascular Magnetic Resonance (1)
- Commercial Vehicle (1)
- Common Rail Injection System (1)
- Diesel Engine (1)
- Enzymatischer Ligninabbau (1)
- European Transient Cycle (1)
Purpose
To assess potential cognitive deficits under the influence of static magnetic fields at various field strengths some studies already exist. These studies were not focused on attention as the most vulnerable cognitive function. Additionally, mostly no magnetic resonance imaging (MRI) sequences were performed.
Materials and Methods
In all, 25 right-handed men were enrolled in this study. All subjects underwent one MRI examination of 63 minutes at 1.5 T and one at 7 T within an interval of 10 to 30 days. The order of the examinations was randomized. Subjects were referred to six standardized neuropsychological tests strictly focused on attention immediately before and after each MRI examination. Differences in neuropsychological variables between the timepoints before and after each MRI examination were assessed and P-values were calculated
Results
Only six subtests revealed significant differences between pre- and post-MRI. In these tests the subjects achieved better results in post-MRI testing than in pre-MRI testing (P = 0.013–0.032). The other tests revealed no significant results.
Conclusion
The improvement in post-MRI testing is only explicable as a result of learning effects. MRI examinations, even in ultrahigh-field scanners, do not seem to have any persisting influence on the attention networks of human cognition immediately after exposure.
Short term effects of magnetic resonance imaging on excitability of the motor cortex at 1.5T and 7T
(2010)
Rationale and Objectives
The increasing spread of high-field and ultra-high-field magnetic resonance imaging (MRI) scanners has encouraged new discussion of the safety aspects of MRI. Few studies have been published on possible cognitive effects of MRI examinations. The aim of this study was to examine whether changes are measurable after MRI examinations at 1.5 and 7 T by means of transcranial magnetic stimulation (TMS).
Materials and Methods
TMS was performed in 12 healthy, right-handed male volunteers. First the individual motor threshold was specified, and then the cortical silent period (SP) was measured. Subsequently, the volunteers were exposed to the 1.5-T MRI scanner for 63 minutes using standard sequences. The MRI examination was immediately followed by another TMS session. Fifteen minutes later, TMS was repeated. Four weeks later, the complete setting was repeated using a 7-T scanner. Control conditions included lying in the 1.5-T scanner for 63 minutes without scanning and lying in a separate room for 63 minutes. TMS was performed in the same way in each case. For statistical analysis, Wilcoxon's rank test was performed.
Results
Immediately after MRI exposure, the SP was highly significantly prolonged in all 12 subjects at 1.5 and 7 T. The motor threshold was significantly increased. Fifteen minutes after the examination, the measured value tended toward normal again. Control conditions revealed no significant differences.
Conclusion
MRI examinations lead to a transient and highly significant alteration in cortical excitability. This effect does not seem to depend on the strength of the static magnetic field.
Die Konzernrechnungslegung
(2010)
Gas sensor investigation based on a catalytically activated thin-film thermopile for H2O2 detection
(2010)
Organisation
(2010)
Gräser sind in der Lage, einen großen Teil der für eine biobasierte Wirtschaft benötigten Biomasse zur Verfügung zu stellen. Wie bei anderen lignocellulosehaltigen nachwachsenden Rohstoffen erfordert die Verwertung der im Gras enthaltenen Polysaccharide einen mehrstufigen Prozess aus Vorbehandlung, Hydrolyse und Fermentation. In Gräsern ist die Hemicellulose mitP henolcarbonsäuren wie Ferula- und p-Coumarsäure verestert, die die enzymatische Hydrolyse der Cellulose und Hemicellulose ebenso effektiv behindern wie Lignin. Anders als bei holzigen Rohstoffen ermöglicht dieser Aufbau aber eine enzymatische Vorbehandlung, mit der die Phenolcarbonsäuren abgespalten werden können. Da die bei der Vorbehandlung eingesetzten Enzyme in ihrer natürlichen Funktion synergistisch mit cellulytischen Enzymen zusammenarbeiten, besitzen sie ähnliche Optima wie die für die Hydrolyse der Polysaccharide eingesetzten Cellulasen und Hemicellulasen. Diese Eigenschaft ermöglicht die Integration von Vorbehandlung und Hydrolyse in einem einzigen Verfahrensschritt. Durch die Einführung der enzymatischen Vorbehandlung konnte das in der Literatur bekannte SSF-Verfahren für die Herstellung von Ethanol aus Gräsern um die Vorbehandlungsstufe erweitert werden. Das so realisierte simultaneous pretreatment, saccharification and fermentation (SPSF)-Verfahren stellt eine vollständige Integration der drei für die Nutzung von Lignocellulose nötigen Verfahrensschritte in der grünen Bioraffinerie dar.
Gras hat ein hohes Potenzial als nachwachsender Rohstoff. Bei ungeeigneter Lagerung verderben Gräser allerdings innerhalb weniger Tage. Dieser Nachteil kann durch die Silierung des Grasschnittes behoben werden. Eines der wichtigsten in der Silage enthaltenen Produkte ist die Milchsäure. Um diese für weitere Aufarbeitungsschritte zugänglich zu machen, wird aus der Silage ein Presssaft hergestellt. Die Milchsäure wird aus einem Silagepresssaft mittels Extraktion durch ionische Flüssigkeiten isoliert. Dabei wird zum einen eine reine Milchsäure hergestellt, die z. B. für die Herstellung von Polymilchsäure genutzt werden kann. Zum anderen wird ein weniger aufgereinigter Extrakt gewonnen, der für die fermentative Produktion von L-Lysin und 1,2-Propandiol genutzt werden soll. Im Rahmen des Projekts erfolgt die gentechnische Optimierung von Corynebacterium glutamicum für die Umsetzung von Milchsäurezu L-Lysin. Die im nach der Pressung verbleibenden Presskuchen enthaltenen Grasfasern bestehen zu einem großen Teil aus Polysacchariden. Diese werden hydrolysiert und die dabei freigesetzten Zucker zu Grundchemikalien wie Ethanol oder Itakonsäure fermentiert. Im Rahmen einer vollständigen Nutzung der Silage wird das Raffinat aus der Milchsäureextraktion als Mediumsupplement in der Fermentation eingesetzt, was die Zugabe weiterer Medienbestandteile überflüssig macht. Die Rückstände der Hydrolysen und Fermentationen sollen darüberhinaus für die Herstellung von Biogas genutzt werden.
Grassilage stellt einen nachwachsenden Rohstoff mit großem Potenzial dar. Neben Cellulose und Hemicellulose enthält sie auch organische Säuren, insbesondere Milchsäure. In einem Bioraffinerie-Projekt wird die Milchsäure aus der Silage isoliert und mit gentechnisch optimierten Stämmen zu L-Lysin weiterverarbeitet. Die Lignocellulose wird hydrolysiert und zu Ethanol fermentiert. Ein besonderes Augenmerk liegt auf der Integration der unterschiedlichen Prozesse sowie der einzelnen Prozessschritte zu einem Gesamtprozess, der sämtliche Inhaltsstoffe der Silage verwertet.
Molke fällt im Rahmen der Käseherstellung allein in Deutschland in Mengen von über 11 Mio. Tonnen jährlich an. Dieses Nebenprodukt wurde trotz seines Reichtums an Milchzucker und Proteinen lange Zeit kaum industriell weiterverarbeitet und stellte ein bedeutendes Problem bei der Abwasserreinigung dar. Derzeit kommen meist kosten- und reinigungsintensive Membranfiltrationsverfahren bei der Auftrennung von Molke in ihre Hauptkomponenten Lactose und Molkenprotein zum Einsatz. Die Produkte finden vorwiegend in der Nahrungsmittelindustrie Anwendung als Süßungsmittel, Proteinzusatz oder Texturbildner. Die Mehrheit des Proteins wird dabei als Konzentrat bzw. Proteinpulver verarbeitet. Wegen der antibakteriellen, antiviralen und weiteren wertvollen physiologischen Eigenschaften der Molkeproteine stellt eine weitere Aufreinigung der einzelnen Molkeproteine für die pharmazeutische Industrie einen naheliegenden zusätzlichen Wertschöpfungsschritt dar. In Kooperation mit der Süd Chemie AG wurde damit begonnen, ein Verfahren zu entwickeln, das kostengünstige mineralische Adsorbentien verwendet. Bisher konnte die Abtrennung von Lactose von den Molkenproteinen aus verdünntem Molkekonzentrat in einem Verfahrensschritt ohne Vorbehandlung des Rohstoffs erfolgreich realisiert werden. Aktuelle Arbeiten beschäftigen sich mit der Verbesserung der Proteinbindekapazitätund chromatographischen Proteinauftrennung sowie dem Upscaling zum direkten Einsatz von Molkekonzentrat ohne Vorverdünnung.
Betriebsratswahlen 2010
(2010)
Die nächsten regelmäßigen Wahlen zum Betriebsrat (BR) stehen vor der Tür. Sie finden in der Zeit vom 1.3.2010 bis 31.5.2010 statt. Die Wahlen sind zwar vornehmlich Sache der Arbeitnehmer, allerdings sollten auch die Arbeitgeber darauf achten, dass die Wahlen korrekt ablaufen, schließlich haben die Arbeitgeber die Kosten der Wahlen zu tragen. Kommt es hierbei zu Fehlern, die schlimmstenfalls eine Wiederholung der Wahlen erfordern, hat auch für die hierdurch zusätzlich entstehenden Kosten der Arbeitgeber aufzukommen. Zudem bietet die aktive und unterstützende Begleitung der Wahlen für die Arbeitgeber die Chance, die Grundlagen für eine konstruktive Zusammenarbeit mit dem künftigen Betriebsrat zu legen. Der vorliegende Beitrag erläutert die wesentlichen Abläufe des Wahlverfahrens sowie die hierbei zwingend zu beachtenden Fristen.
Simulation und Experiment bei der Aufarbeitung von Polyphenolen durch neue Silicatmaterialien
(2010)
Nachwachsende Rohstoffe stellen eine reichhaltige Quelle für die Gewinnung von wirtschaftlich interessanten Biomolekülen dar. Die Gruppe der Polyphenole ist dabei für mehrere Industriezweige bedeutend. Ihre antioxidativen Eigenschaften sind z. B. für die Pharmaindustrie interessant. Im derzeit bearbeiteten Projekt sollen Polyphenole aus Pflanzenbestandteilen isoliert und aufgereinigt werden, um sie dann als Komponenten für eine Vernetzung von Polymeren auf der Basis von Fettsäuren einzusetzen. Bisher sind im Wesentlichen Prozesse zur Entfernung von Polyphenolen aus Getränken wie Bier und Wein bekannt. Eine Wiedergewinnung der Polyphenole war in diesen Anwendungen bisher nicht relevant. Die Gewinnung bzw. Abtrennung der Polyphenole erfolgt u. a. durch kommerziell erhältliche Adsorbentien wie PVPP, Adsorberharze XAD16 (Rhöm & Haas) oder SP70 (Sepabeads), deren Partikelgrößen im Bereichvon 0,1 ± 0,8 mm und spezifischen Oberflächen von 700 ± 900 m 2 /g liegen. Als Alternative zu diesen Adsorbern sollen neue Materialien auf Basis von anorganischen Trennmedien, wie z. B. natürlichen Tonmineralien, für die Polyphenolabtrennung verwendet werden. Derzeit wird durch Abgleich von Experiment und Simulation ein Materialscreening durchgeführt. Durch den Einsatz molekulardynamischer Bindungssimulationen wird die Adsorbersuche beschleunigt und Vorhersagen zu Modifikationen bei der Herstellung der neuen Adsorbentien ermöglicht.
Durch den Einsatz magnetisierbarer Partikel lassen sich Stoffwechselprodukte direkt und selektiv aus feststoffreichen Fermentationssuspensionen abtrennen. Im Gegensatz zu klassischen Adsorbermaterialien können magnetisierbare Partikel mit sehr geringen Durchmessern verwendet werden. Zur deren Abtrennung ist jedoch ein hoher Magnetfeldgradient notwendig. Dieser wird in der Regel durch in der Trennkammer bzw. dem Magnetfeld eingebrachte magnetisierbare Drähte realisiert. Bei der Auslegung der Drahtgitter ist ein Kompromiss zwischen Abtrennrate und Durchlässigkeit nötig. Die Ausrichtung der Drähte in Relation zum Magnetfeld, deren Abstand sowie die geometrische Anordnung können hierbei variiert werden. Zum Verständnis der Einflüsse auf das sich ausbildende Magnetfeld und die Fluiddynamik wurden Simulationen mit der Finite-Elemente-Methode durchgeführt und experimentell überprüft. Hierfür wurden die Drähte unter Variation von Anzahl, Richtung und Anordnung in den Hochgradient-Magnetseparator eingebracht. Erste Verifizierungen der Simulationen zeigen, dass die in Magnetfeldrichtung ausgerichteten Drähte (x-Achse) über die geringste Partikelrückhaltefähigkeit verfügen. Die Drähte der y- und z-Achse halten den größten Anteil der Magnetpartikel zurück, wobei die Drähte in y-Richtung den höchsten Feldgradienten ausbilden. Des Weiteren konnte gezeigt werden, dass eine rhomboedrische Drahtanordnung der kubischen vorzuziehen ist.
Paracoccus denitrificans for the effluent recycling during continuous denitrification of liquid food
(2010)
Nitrate is an undesirable component of several foods. A typical case of contamination with high nitrate contents is whey concentrate, containing nitrate in concentrations up to 25 l. The microbiological removal of nitrate by Paracoccus denitrificans under formation of harmless nitrogen in combination with a cell retention reactor is described here. Focus lies on the resource-conserving design of a microbal denitrification process. Two methods are compared. The application of polyvinyl alcohol-immobilized cells, which can be applied several times in whey feed, is compared with the implementation of a two step denitrification system. First, the whey concentrate's nitrate is removed by ion exchange and subsequently the eluent regenerated by microorganisms under their retention by crossflow filtration. Nitrite and nitrate concentrations were determined by reflectometric color measurement with a commercially available Reflectoquant® device. Correction factors for these media had to be determined. During the pilot development, bioreactors from 4 to 250 mg·L-1 and crossflow units with membrane areas from 0.02 to 0.80 m2 were examined. Based on the results of the pilot plants, a scaling for the exemplary process of denitrifying 1,000 tons per day is discussed.
Lignine bestehen aus einem hochgradig vernetzten Polymer phenolischer Grundeinheiten. Diese Verbindungen sind eine Quelle vielversprechender chemischer Grundbausteine. Auch die enzymatische Modifikation der Materialeigenschaften des Lignins ist für dessen Anwendung von Interesse. Aufgrund der verschiedenen Bindungstypen im Lignin ist eine Auftrennung mit nur einem Enzym unwahrscheinlich. Vielmehr sind verschiedene mediatorgestützte Reaktionen notwendig. Pilze, wie z.B. T. versicolor, nutzen Enzymkombinationen zum Aufschluss des Lignins. Hierbei kommen Laccase, Ligninperoxidase und Manganperoxidase zum Einsatz. Die optimale Kombination der Enzyme und ihrer Mediatoren bzw. Stabilisatoren ist Ziel der Untersuchungen. Aufgrund der großen Parameteranzahl wurde ein genetischer Algorithmus eingesetzt. Als Versuchsparameter wurden gewählt: die Verhältnisse der Enzyme, Ligninmasse, Konzentrationen an Eisen-, Mangan-, Oxalat-Ionen, ABTS, Violursäure und H₂O₂. Somit werden elf Parameter simultan optimiert. Als Algorithmus wurde ein Programm mit variabler Genkodierung entwickelt. Die Umsetzung des Lignins wird dabei über den verfolgt. Zurzeit ist ein enzymatischer Umsatz von 12% möglich. Als Referenz wurde eine chemische Lignindegradierung mit einem Umsatzvon 37% etabliert. Die sechs Generationen des Algorithmus zeigen eine Kongruenz der Enzymkonzentrationen von LiP, MnP und VeP, während Laccase keinen Einfluss hat. Des Weiteren beeinflussen die Konzentrationen von Mangan und Oxalat die Umsetzung, während die Variation von ABTS- und H₂O₂ nur eine geringe Auswirkung hat.
Shakedown analysis of two dimensional structures by an edge-based smoothed finite element method
(2010)
Simultaneous detection of cyanide and heavy metals for environmental analysis by means of µISEs
(2010)
Ein viel versprechender erneuerbarer Rohstoff für die Produktion von Chemikalien und Treibstoffen ist Lignocellulose aus pflanzlicher Biomasse. Die darin enthaltenen Zucker können mittels enzymatischer Hydrolyse freigesetzt und fermentativ zu Ethanol umgesetzt werden. Ein interessanter Ansatz ist dabei die simultane Verzuckerung und Fermentation. Hefen und Enzyme haben mit 30 °C bzw. 50 °C zwar unterschiedliche Temperaturoptima, es konnte aber gezeigt werden, dass auch bei den niedrigeren Temperaturen eine Umsetzung der Cellulose zu Glucose erfolgt, wenn auch langsamer als bei optimalen Bedingungen. Außerdem konnte in Vorversuchen gezeigt werden, dass Ethanol in den zu erwartenden Konzentrationen keinen Einfluss auf die enzymatische Umsetzung hat.
Quantifying and minimizing uncertainty is vital for simulating technically and economically successful geothermal reservoirs. To this end, we apply a stochastic modelling sequence, a Monte Carlo study, based on (i) creating an ensemble of possible realizations of a reservoir model, (ii) forward simulation of fluid flow and heat transport, and (iii) constraining post-processing using observed state variables. To generate the ensemble, we use the stochastic algorithm of Sequential Gaussian Simulation and test its potential fitting rock properties, such as thermal conductivity and permeability, of a synthetic reference model and—performing a corresponding forward simulation—state variables such as temperature. The ensemble yields probability distributions of rock properties and state variables at any location inside the reservoir. In addition, we perform a constraining post-processing in order to minimize the uncertainty of the obtained distributions by conditioning the ensemble to observed state variables, in this case temperature. This constraining post-processing works particularly well on systems dominated by fluid flow. The stochastic modelling sequence is applied to a large, steady-state 3-D heat flow model of a reservoir in The Hague, Netherlands. The spatial thermal conductivity distribution is simulated stochastically based on available logging data. Errors of bottom-hole temperatures provide thresholds for the constraining technique performed afterwards. This reduce the temperature uncertainty for the proposed target location significantly from 25 to 12 K (full distribution width) in a depth of 2300 m. Assuming a Gaussian shape of the temperature distribution, the standard deviation is 1.8 K. To allow a more comprehensive approach to quantify uncertainty, we also implement the stochastic simulation of boundary conditions and demonstrate this for the basal specific heat flow in the reservoir of The Hague. As expected, this results in a larger distribution width and hence, a larger, but more realistic uncertainty estimate. However, applying the constraining post-processing the uncertainty is again reduced to the level of the post-processing without stochastic boundary simulation. Thus, constraining post-processing is a suitable tool for reducing uncertainty estimates by observed state variables.
Objectives
Interest in cardiovascular magnetic resonance (CMR) at 7 T is motivated by the expected increase in spatial and temporal resolution, but the method is technically challenging. We examined the feasibility of cardiac chamber quantification at 7 T.
Methods
A stack of short axes covering the left ventricle was obtained in nine healthy male volunteers. At 1.5 T, steady-state free precession (SSFP) and fast gradient echo (FGRE) cine imaging with 7 mm slice thickness (STH) were used. At 7 T, FGRE with 7 mm and 4 mm STH were applied. End-diastolic volume, end-systolic volume, ejection fraction and mass were calculated.
Results
All 7 T examinations provided excellent blood/myocardium contrast for all slice directions. No significant difference was found regarding ejection fraction and cardiac volumes between SSFP at 1.5 T and FGRE at 7 T, while volumes obtained from FGRE at 1.5 T were underestimated. Cardiac mass derived from FGRE at 1.5 and 7 T was larger than obtained from SSFP at 1.5 T. Agreement of volumes and mass between SSFP at 1.5 T and FGRE improved for FGRE at 7 T when combined with an STH reduction to 4 mm.
Conclusions
This pilot study demonstrates that cardiac chamber quantification at 7 T using FGRE is feasible and agrees closely with SSFP at 1.5 T.
Ein 34-jähriger männlicher Patient stellte sich zur Abklärung einer seit dem 9. Lebensjahr bestehenden und im letzten Jahr rasch progredienten Visusminderung beider Augen bei uns vor. Er beschrieb eine subjektiv zunehmende, im Spiegel für ihn selbst sichtbare, weißliche Trübung in der Pupille beidseits und eine starke Blendempfindlichkeit. Nebenbefundlich gab er rezidivierende Konjunktivitiden und morgens verklebte Lider an. Eine Allergie auf Gräserpollen und eine Unverträglichkeit auf Alkohol sowie mehrere Lebensmittel seien ebenfalls bekannt.
Zusätzlich leidet der Patient an stark ausgeprägtem atopischem Ekzem. Dieses wurde nie systemisch, sondern nur bei Bedarf mit kortisonhaltiger Salbe therapiert.
Eine SPS im Kraftfahrzeug? Das geht ja gar nicht – da gibt es doch all die Hersteller für Kfz-Steuergeräte, die konfigurierbare Hardware anbieten. Im Prinzip ja, aber leider sind gerade die Sensoren oder Aktoren nicht ansteuerbar, die der Entwickler genau für sein aktuelles Projekt benötigt. Dieser Beitrag gibt einen kleinen Einblick in neue Möglichkeiten des Rapid Prototyping für mechatronische Systeme auf der Basis von Speicherprogrammierbaren Steuerungen (SPS).