Refine
Year of publication
Institute
- Fachbereich Medizintechnik und Technomathematik (373) (remove)
Language
- German (373) (remove)
Document Type
- Article (225)
- Book (53)
- Conference Proceeding (31)
- Part of a Book (18)
- Report (15)
- Patent (13)
- Doctoral Thesis (9)
- Other (3)
- Habilitation (2)
- Course Material (1)
Keywords
- CAD (7)
- Bauingenieurwesen (6)
- civil engineering (6)
- Finite-Elemente-Methode (4)
- Einspielen <Werkstoff> (3)
- shakedown analysis (3)
- Architektur (2)
- Traglast (2)
- architecture (2)
- limit analysis (2)
Kinematics and kinetics of handcycling propulsion at increasing workloads in able-bodied subjects
(2018)
In Paralympic sports, biomechanical optimisation of movements and equipment seems to be promising for improving performance. In handcycling, information about the biomechanics of this sport is mainly provided by case studies. The aim of the current study was (1) to examine changes in handcycling propulsion kinematics and kinetics due to increasing workloads and (2) identify parameters that are associated with peak aerobic performance. Twelve non-disabled male competitive triathletes without handcycling experience voluntarily participated in the study. They performed an initial familiarisation protocol and incremental step test until exhaustion in a recumbent racing handcycle that was attached to an ergometer. During the incremental test, tangential crank kinetics, 3D joint kinematics, blood lactate and ratings of perceived exertion (local and global) were identified. As a performance criterion, the maximal power output during the step test (Pmax) was calculated and correlated with biomechanical parameters. For higher workloads, an increase in crank torque was observed that was even more pronounced in the pull phase than in the push phase. Furthermore, participants showed an increase in shoulder internal rotation and abduction and a decrease in elbow flexion and retroversion. These changes were negatively correlated with performance. At high workloads, it seems that power output is more limited by the transition from pull to push phase than at low workloads. It is suggested that successful athletes demonstrate small alterations of their kinematic profile due to increasing workloads. Future studies should replicate and expand the test spectrum (sprint and continuous loads) as well as use methods like surface electromyography (sEMG) with elite handcyclists.
Kompakte und perfekte Maße
(1983)
Limitierungsverfahren von Reihen mehrdimensionaler Kugelfunktionen und deren Saturationsverhalten
(1968)
Die vorliegende Arbeit untersucht das approximationstheoretische Verhalten von Summationsprozessen von Reihen von Kugelfunktionen, sogenannten Laplace-Reihen. Zunächst wird die Theorie der besten Approximation auf der Kugel, also die Erweiterung der Sätze von D. Jackson und S. Bernstein, skizziert. Nimmt man nun spezielle Verfahren zur Summation von Laplace-Reihen, dann lassen sich auch hier Sätze vom Jacksonschen und Bernsteinschen Typ beweisen. Darüber hinaus zeigen viele Verfahren ein Saturationsverhalten, d.h. es gibt eine nur vom Verfahren abhängige optimale Approximationsordnung. Das Saturationsproblem besteht nun darin, diejenige Klasse von Funktionen (Saturationsklasse) zu bestimmen, welche genau von der optimalen Ordnung approximiert werden.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist ähnlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA entwickelten Zuverlässigkeitsanalysen sind nichlinear erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar. Auf die vorgesehenen Erweiterungen der Werkstoffmodellierung für nichtlineare Verfestigung und für Schädigung konnte hier nicht eingegangen werden. Es herrscht ein deutlicher Mangel an Experimenten zum Nachweis der Grenzen zwischen elastischem Einspielen und dem Versagen durch LCF oder durch Ratchetting.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. Die Autoren möchten der Europäischen Kommission an dieser Stelle für die Förderung ausdrücklich danken. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist änhlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA geplante Zuverlässigkeitsanalyse ist erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar.
LISA, ein europäisches Projekt zur direkten Berechnung der Tragfähigkeit duktiler Strukturen.
(1998)
Markierungsfreie DNA-Detektion mit Silizium-Feldeffekt-Sensoren – Messeffekte oder Artefakte?
(2007)
Mathematik im ingenieurwissenschaftlichen Bachelorstudium : Lösung der Übungs- und Klausuraufgaben
(2010)
Mechanik: Vorlesung
(1987)
Miniaturisierte Referenzelektroden in Siliziumtechnologie für elektrochemische Sensoranwendungen
(2004)
Mit Logik die Welt begreifen
(2005)
Für die Verarbeitung von natürlicher Sprache ist ein wichtiger Zwischenschritt das Parsing, bei dem für Sätze der natürlichen Sprache Ableitungsbäume bestimmt werden. Dieses Verfahren ist vergleichbar zum Parsen formaler Sprachen, wie z. B. das Parsen eines Quelltextes. Die Parsing-Methoden der formalen Sprachen, z. B. Bottom-up-Parser, können nicht auf das Parsen der natürlichen Sprache übertragen werden, da keine Formalisierung der natürlichen Sprachen existiert [3, 12, 23, 30].
In den ersten Programmen, die natürliche Sprache verarbeiten [32, 41], wurde versucht die natürliche Sprache mit festen Regelmengen zu verarbeiten. Dieser Ansatz stieß jedoch schnell an seine Grenzen, da die Regelmenge nicht vollständig sowie nicht minimal ist und wegen der benötigten Menge an Regeln schwer zu verwalten ist. Die Korpuslinguistik [22] bot die Möglichkeit, die Regelmenge durch Supervised-Machine-Learning-Verfahren [2] abzulösen.
Teil der Korpuslinguistik ist es, große Textkorpora zu erstellen und diese mit sprachlichen Strukturen zu annotieren. Zu diesen Strukturen gehören sowohl die Wortarten als auch die Ableitungsbäume der Sätze. Vorteil dieser Methodik ist es, dass repräsentative Daten zur Verfügung stehen. Diese Daten werden genutzt, um mit Supervised-Machine-Learning-Verfahren die Gesetzmäßigkeiten der natürliche Sprachen zu erlernen.
Das Maximum-Entropie-Verfahren ist ein Supervised-Machine-Learning-Verfahren, das genutzt wird, um natürliche Sprache zu erlernen. Ratnaparkhi [25] nutzt Maximum-Entropie, um Ableitungsbäume für Sätze der natürlichen Sprache zu erlernen. Dieses Verfahren macht es möglich, die natürliche Sprache (abgebildet als Σ∗) trotz einer fehlenden formalen Grammatik zu parsen.
Hintergrund
Die Anwendung und das Verständnis von Statistik sind sehr wichtig für die biomedizinische Forschung und für die klinische Praxis. Dies gilt insbesondere auch zur Abschätzung der Möglichkeiten unterschiedlichster Diagnostik- und Therapieoptionen beim Glaukom. Die scheinbare Komplexität der Statistik, die zum Teil dem „gesunden Menschenverstand“ zu widersprechen scheint, zusammen mit der nur vorsichtigen Akzeptanz der Statistik bei vielen Medizinern können zu bewussten und unbewussten Manipulationen bei der Datendarstellung und -interpretation führen.
Ziel der Arbeit
Ziel ist die verständliche Darstellung einiger typischer Fehler in der medizinisch-statistischen Datenbehandlung.
Material und Methoden
Anhand hypothetischer Beispiele aus der Glaukomdiagnostik erfolgen die Darstellung der Wirkung eines hypotensiven Medikamentes sowie die Beurteilung der Ergebnisse eines diagnostischen Tests. Es werden die typischsten statistischen Einsatzbereiche und Irrtumsquellen ausführlich und verständlich analysiert
Ergebnisse
Mechanismen von Datenmanipulation und falscher Dateninterpretation werden aufgeklärt. Typische Irrtumsquellen bei der statistischen Auswertung und Datendarstellung werden dabei erläutert.
Schlussfolgerungen
Die erläuterten praktischen Beispiele zeigen die Notwendigkeit, die Grundlagen der Statistik zu verstehen und korrekt anwenden zu können. Fehlendes Grundlagenwissen und Halbwissen der medizinischen Statistik können zu folgenschweren Missverständnissen und falschen Entscheidungen in der medizinischen Forschung, aber auch in der klinischen Praxis führen.
Teamsitzungen, Arbeitsgruppentreffen, Kickoffs und Meetings – sie alle werden mit dem Ziel durchgeführt, innerhalb einer vorgegebenen Zeitspanne ein gemeinsames Arbeitsziel zu erreichen. Damit die Zielerreichung auch bei komplexeren Arbeitsaufträgen nicht vom Zufall abhängt, empfiehlt es sich, die Leitung des Ablaufs einem Moderator zu übertragen.
In diesem Beitrag einer dreiteiligen Serie wird beschrieben, über welches Mindset der Moderator verfügen sollte, welche grundsätzlichen Methoden hilfreich sind und was bei der Onlinemoderation im Besonderen zu beachten ist.
Teamsitzungen, Arbeitsgruppentreffen, Kickoffs und Meetings – sie alle werden mit dem Ziel durchgeführt, innerhalb einer vorgegebenen Zeitspanne ein gemeinsames Arbeitsziel zu erreichen. Damit die Zielerreichung auch bei komplexeren Arbeitsaufträgen nicht vom Zufall abhängt, empfiehlt es sich, die Leitung des Ablaufs einem Moderator zu übertragen.
In diesem Beitrag einer mehrteiligen Serie wird beschrieben, über welches Mindset der Moderator verfügen sollte, welche grundsätzlichen Methoden hilfreich sind und was bei der Onlinemoderation im Besonderen zu beachten ist.
Teamsitzungen, Arbeitsgruppentreffen, Kickoffs und Meetings – sie alle werden mit dem Ziel durchgeführt, innerhalb einer vorgegebenen Zeitspanne ein gemeinsames Arbeitsziel zu erreichen. Damit die Zielerreichung auch bei komplexeren Arbeitsaufträgen nicht vom Zufall abhängt, empfiehlt es sich, die Leitung des Ablaufs einem Moderator zu übertragen.
In diesem Beitrag einer mehrteiligen Serie wird beschrieben, über welches Mindset der Moderator verfügen sollte, welche grundsätzlichen Methoden hilfreich sind und was bei der Onlinemoderation im Besonderen zu beachten ist.
Damit Sie als Moderator effektiv und professionell moderieren können, sollten Sie die entsprechenden Methoden kennen.
Mit den richtigen Methoden können Sie Diskussionen leiten, Konflikte lösen, die Teilnehmer motivieren und dafür sorgen, dass die Ziele der Veranstaltung erreicht werden. Außerdem helfen sie Ihnen, eine positive Atmosphäre zu schaffen und das Interesse der Teilnehmer zu halten.
In diesem zweiten Beitrag der mehrteiligen Serie lernen Sie die grundsätzlichen Methoden kennen, um erfolgreiche Teamsitzungen, Arbeitsgruppentreffen, Kick-offs und Meetings durchzuführen.
Damit Sie als Moderator effektiv und professionell moderieren können, sollten Sie die entsprechenden Methoden kennen.
Mit den richtigen Methoden können Sie Diskussionen leiten, Konflikte lösen, die Teilnehmer motivieren und dafür sorgen, dass die Ziele der Veranstaltung erreicht werden. Außerdem helfen sie Ihnen, eine positive Atmosphäre zu schaffen und das Interesse der Teilnehmer zu halten.
In diesem zweiten Beitrag der mehrteiligen Serie lernen Sie die grundsätzlichen Methoden kennen, um erfolgreiche Teamsitzungen, Arbeitsgruppentreffen, Kick-offs und Meetings durchzuführen.
Damit Sie auch in den immer häufiger werdenden Onlineveranstaltungen als Moderator gut bestehen, sollten Sie wissen, was bei der Onlinemoderation im Besonderen zu beachten ist.
In diesem dritten Teil der Beitragsserie erfahren Sie, warum online anders als offline ist. Die technischen Möglichkeiten werden vorgestellt und auch wie diese zu nutzen sind. Schließlich erhalten Sie Tipps, die Sie beim Sprechen online beachten sollten.
Damit Sie als Moderator effektiv und professionell moderieren können, sollten Sie die entsprechenden Methoden kennen.
Mit den richtigen Methoden können Sie Diskussionen leiten, Konflikte lösen, die Teilnehmer motivieren und dafür sorgen, dass die Ziele der Veranstaltung erreicht werden. Außerdem helfen sie Ihnen, eine positive Atmosphäre zu schaffen und das Interesse der Teilnehmer zu halten.
In diesem zweiten Beitrag der mehrteiligen Serie lernen Sie die grundsätzlichen Methoden kennen, um erfolgreiche Teamsitzungen, Arbeitsgruppentreffen, Kick-offs und Meetings durchzuführen.
Damit Sie auch in den immer häufiger werdenden Onlineveranstaltungen als Moderator gut bestehen, sollten Sie wissen, was bei der Onlinemoderation im Besonderen zu beachten ist.
In diesem dritten Teil der Beitragsserie erfahren Sie, warum online anders als offline ist. Die technischen Möglichkeiten werden vorgestellt und auch wie diese zu nutzen sind. Schließlich erhalten Sie Tipps, die Sie beim Sprechen online beachten sollten.
Die qualitative und quantitative Detektion von Zielsubstanzen innerhalb einer wässrigen Probe ist für viele Fragestellungen von Interesse, etwa bei der Detektion von Kontaminationen in Trinkwasser in Krisensituationen. Hierbei ist es nicht nur wichtig, dass Pathogene möglichst sensitiv detektiert werden können, sondern auch, dass die Analyse schnell erfolgt, um Betroffenen im Katastrophenfall zügig sicheres Trinkwasser zu Verfügung stellen zu können. Da bei einem solchen Szenario nicht von einer in der Nähe befindlichen funktionierenden Laborinfrastruktur ausgegangen werden kann, ist es wichtig, dass die Messung direkt vor Ort erfolgen kann. Im Rahmen dieser Arbeit wurde untersucht, ob eine derartige Schnellanalytik mithilfe von superparamagnetischen Beads (MBs) und der magnetischen Frequenzmischtechnik möglich ist. Dabei werden die MBs mit Hilfe von primären Antikörpern an die Zielsubstanz gebunden und mit sekundären Antikörpern an die Poren-Oberfläche eines Polyethylen-Filters fixiert (Sandwich-Immunoassay). So kann die Quantifizierung der Zielsubstanz auf eine magnetische Messung der immobilisierten MB-Marker zurückgeführt werden. Die magnetische Frequenzmischtechnik basiert auf der Anregung der Probe mit Magnetfeldern zweier verschiedener Frequenzen. Die durch die nichtlineare Magnetisierungsform der superparamagnetischen MBs entstehenden Mischfrequenzen werden typischerweise mithilfe einer zweistufigen Lock-in-Detektion analysiert (analoge Demodulation), die in einem Magnetreader als Handheldgerät realisiert wurde. Zusätzlich zu dieser Technik wurde das Prinzip der direkten Digitalisierung des gesamten Antwortsignals mit anschließender Fourier-Analyse der erzeugten Mischfrequenzen experimentell umgesetzt, um die Amplituden und Phasen mehrerer Mischfrequenzen simultan zu erfassen. Eine Möglichkeit zur Sensitivitätssteigerung ist die magnetische Aufkonzentration, indem vor der magnetischen Analyse eine Separation der MBs aus einem größeren Probenvolumen mittels magnetischem Feldgradienten durchgeführt wird. Zur Charakterisierung verschiedener kommerzieller MBs hinsichtlich ihrer magnetischen Separierbarkeit wurde ein Aufbau zur Messung ihrer magnetophoretischen Beweglichkeiten realisiert und ihre Geschwindigkeiten im Gradientenfeld mikroskopisch gemessen.Da eine Probe oftmals nicht nur auf eine einzige Zielsubstanz, sondern simultan auf mehrere verschiedene Pathogene hin untersucht werden soll, wurden verschiedene Ansätze entwickelt und getestet, die einen solchen multiparametrischen magnetischen Immunoassay ermöglichen. Einerseits wurde eine räumliche Separation der Bindungsbereiche für verschiedene Zielsubstanzen realisiert, die sequentiell ausgewertet werden können. Andererseits wurde die Unterscheidung von verschiedenen Zielsubstanzen anhand der Charakteristika der an sie gebundenen, verschieden funktionalisierten MB-Typen untersucht. Für eine solche Unterscheidung wurde zum einen die Anregefrequenz der magnetischen Frequenzmischtechnik während einer Messung variiert. Damit konnte gezeigt werden, dass sich verschiedene MB-Sorten anhand der Phase ihrer Frequenzmischsignale voneinander unterscheiden lassen. Weiterhin wurde gezeigt, dass sich der Signalverlauf einer binären Mischung zweier verschiedener MB-Typen als gradueller Übergang der Verläufe der beiden reinen MB-Lösungen ergibt. Eine weitere Analysemethode für einen multiparametrischen Immunoassay besteht darin, ein zusätzliches einstellbares statisches magnetisches Offsetfeld zu verwenden. Hierfür wurden mehrere Aufbauten auf Basis von Permanent- und Elektromagneten simuliert, konstruiert und charakterisiert. Mithilfe von Simulationen konnte gezeigt werden, dass eine auf diesem Verfahren beruhende Unterscheidung für MBs mit unterschiedlichen magnetischen Partikelmomenten möglich ist. Als direkte Anwendung des hier entwickelten Magnetreaders in Zusammenspiel mit der digitalen Demodulation wurde ein magnetischer Assay gegen die B-Untereinheit des Choleratoxins in Trinkwasser mit einem niedrigen Detektionslimit von 0,2 ng/ml demonstriert.
Nah- versus Nachtoderfahrungen
Nahtoderfahrungen (NTE) sind ein Phänomen aus der Kategorie „außergewöhnliche Bewusstseinserfahrungen“. Sie treten in unmittelbarer Nähe des eigenen Todes auf. Oft, aber nicht immer, handelt es sich dabei um Erfahrungen von Personen, die durch ärztliche Maßnahmen wiederbelebt wurden und später davon berichten (NTE-ler). Jedoch kommen solche Phänomene auch bei Menschen vor, die während einer schweren Erkrankung eine lebensbedrohliche Krise haben, hiervon aber spontan genesen.
Den NTE ähnlich sind auch sogenannte Nachtod-erfahrungen sowie spontane Erlebnisse, die im Rahmen anderer außergewöhnlicher Stresssituationen auftreten. Von Nachtoderfahrungen spricht man, wenn die Betroffenen anlässlich des Todes von geliebten Angehörigen oder Freunden Erlebnisse haben, die inhaltlich ebenfalls, zumindest aber teilweise, denen von NTE entsprechen.
Nachtoderfahrungen sowie spontane NTE-ähnliche Erlebnisse unterscheiden sich jedoch von den echten NTE zumeist sowohl quantitativ als auch qualitativ. Unter einem quantitativen Unterschied versteht man in diesem Zusammenhang eine in der Regel geringer ausgeprägte Komplexität, als sie sehr vielen NTE zu eigen ist. Da sich aber auch viele NTE selbst bezüglich ihrer Komplexität unterscheiden, ist der Hauptunterschied qualitativer Natur: Echte NTE besitzen gegenüber den anderen hier erwähnten Phänomenen eine größere inhaltliche und emotionale Tiefe. Sie begleiten die Betroffenen anschließend ein Leben lang – zumeist mit positiven, in Einzelfällen aber auch mit negativen Folgen, die bis zu einem späteren Suizid reichen können.
Die genannten außergewöhnlichen Bewusstseinsphänomene lassen sich in ihrer Gesamtheit bei rund 5 % der Bevölkerung finden. NTE im Speziellen haben hiervon einen durchaus bedeutenden Anteil. Je nach Studie geben zwischen 18 % und 40 % aller Personen, die reanimiert wurden, an, währenddessen eine NTE erlebt zu haben. Dass nicht alle eine solche Erfahrung machen, wird von Kritikern gern dahingehend interpretiert, NTE seien rein physiologischer und keineswegs spiritueller Natur. Jedoch sollte man bedenken, dass im Fall einer rein neurophysiologischen Grundlage von NTE dann bei jedem ein solches Phänomen zu erwarten wäre, so wie beispielsweise auch die Symptome einer Hypoglykämie im Wesentlichen immer dieselben sind.
Ein lichtadressierbarer potentiometrischer Sensor (LAPS) kann die Konzentration eines oder mehrerer Analyten ortsaufgelöst auf der Sensoroberfläche nachweisen. Dazu wird mit einer modulierten Lichtquelle die Halbleiterstruktur des zu untersuchenden Bereiches angeregt und ein entsprechender Photostrom ausgelesen. Durch gleichzeitige Anregung mehrere Bereiche durch Lichtquellen mit unterschiedlichen Modulationsfrequenzen können diese auch zeitgleich ausgelesen werden. Mit der neuen, hier vorgestellten Ansteuerungselektronik integriert in einem "Field Programmable Gate Array" (FPGA) ist es möglich, mehrere Leuchtquellen gleichzeitig mit unterschiedlichen, während der Laufzeit festlegbaren Frequenzen, Phasen und Lichtintensitäten zu betreiben. Somit kann das Frequenzverhalten des Sensors untersucht und die Konzentration des Analyten über das Oberflächenpotential mit Hilfe von Strom/Spannungs-Kurven und Phase/Spannungs-Kurven bestimmt werden.
Neurophysiologisch ist das nicht alles zu erklären : Nahtoderfahrungen aus wissenschaftlicher Sicht
(2017)
Metathese von Ölsäure und Derivaten ist ein interessanter Weg für die Synthese bifunktioneller Verbindungen aus nachwachsenden Rohstoffen. Verwendet wurden Ru-Katalysatoren der zweiten Generation, welche eine hohe Toleranz gegenüber funktionellen Gruppen und Verunreinigungen aufweisen. Trotz des Einsatzes technischer Edukte waren Umsetzungen mit niedrigen Katalysatormengen (0.001 – 0.01 mol-%) möglich, mit Ausbeuten entsprechend der Literatur. Kreuzmetathesen ermöglichten variable Kettenlängen und Funktionalitäten der Monomere, die Produktgewinnung ist jedoch aufwändig. Selbstmetathese lieferte C18-bifunktionelle Verbindungen, welche einfach durch Destillation oder Kristallisation isoliert werden können. Neben der katalystischen Umsetzung wurde auch die Produktgewinnung untersucht und für ausgewählte Produkte auch im größeren Maßstab durchgeführt.
Online-Messsysteme für die automatisierte Charakterisierung von feldeffektbasierten Biosensoren
(2007)
In: Forum Bauinformatik 2005 : junge Wissenschaftler forschen / [Lehrstuhl Bauinformatik, Brandenburgische Technische Universität Cottbus. Frank Schley ... (Hrsg.)]. - Cottbus : Techn. Universität 2005. S. 1-10 ISBN 3-934934-11-0
Mittels eines operationalen Ansatzes zur Semantikdefinition wird am Bei-spiel des konzeptuellen Gebäudeentwurfs ein Regelsystem formalisiert. Dazu werdenzwei Teile, zum einen das Regelwissen, zum anderen ein konzeptueller Entwurfsplan zunächst informell eingeführt und dann formal beschrieben. Darauf aufbauend wird die Grundlage für eine Konsistenzprüfung des konzeptuellen Entwurfs gegen das Regel-wissen formal angeben
Applications of Graph Transformations with Industrial Relevance Lecture Notes in Computer Science, 2004, Volume 3062/2004, 90-105, DOI: 10.1007/978-3-540-25959-6_7 In this paper we discuss how tools for conceptual design in civil engineering can be developed using graph transformation specifications. These tools consist of three parts: (a) for elaborating specific conceptual knowledge (knowledge engineer), (b) for working out conceptual design results (architect), and (c) automatic consistency analyses which guarantee that design results are consistent with the underlying specific conceptual knowledge. For the realization of such tools we use a machinery based on graph transformations. In a traditional PROGRES tool specification the conceptual knowledge for a class of buildings is hard-wired within the specification. This is not appropriate for the experimentation platform approach we present in this paper, as objects and relations for conceptual knowledge are due to many changes, implied by evaluation of their use and corresponding improvements. Therefore, we introduce a parametric specification method with the following characteristics: (1) The underlying specific knowledge for a class of buildings is not fixed. Instead, it is built up as a data base by using the knowledge tools. (2) The specification for the architect tools also does not incorporate specific conceptual knowledge. (3) An incremental checker guarantees whether a design result is consistent with the current state of the underlying conceptual knowledge (data base).
Der vorliegende Artikel fokussiert sich auf die weibliche Belastungsinkontinenz als Insuffizienz der Speicherfunktion der Blase, auch wenn im klinischen Alltag die Harninkontinenz der Frau häufig verschiedene Ursachen hat und insbesondere eine Belastungsinkontinenz im Alter und bei neurologischer Komorbidität nur selten isoliert vorkommt.
Das kleine Becken der Frau ist sowohl als Funktions- als auch als strukturelle Einheit zu betrachten. Dabei unterliegen bei der Frau Blase, Harnröhre, Gebärmutter und Enddarm sowie die muskulären und ligamentösen Strukturen des kleinen Beckens durch Fertilitätsphase, mögliche Schwangerschaften, Geburten und Menopausen-Phase, über das „normale Altern“ hinaus, gravierenden Veränderungen.
This article focuses on female stress incontinence in the form of pelvic floor dysfunction and urethral sphincter deficiency, although isolated stress incontinence accounts for less than half of all incontinence cases. Especially in women of old age and those with neurological comorbidities, the causes of incontinence are mostly multifactorial. Also it has to be considered that the female bladder, urethra, uterus and rectum as well as the muscular and ligamentous structures of the female pelvis minor are affected by phases of fertility, possible pregnancies, births and menopause in addition to the normal ageing process.
A 2-dimensional detector system for high resolution thyroid I-131 scintigraphy was developed. It has a sensitive area of 4 cm×4 cm and consists of a lead-collimator and an array of 10×10 EGO crystals combined with a position sensitive photomultiplier. The spatial resolution and the sensitivity of the detector has been measured and compared to two commercially available gamma-cameras. Furthermore first patient measurements have been carried out