Refine
Year of publication
Institute
- Fachbereich Medizintechnik und Technomathematik (371) (remove)
Language
- German (371) (remove)
Document Type
- Article (225)
- Book (52)
- Conference Proceeding (31)
- Part of a Book (18)
- Report (15)
- Patent (13)
- Doctoral Thesis (8)
- Other (3)
- Habilitation (2)
- Course Material (1)
Keywords
- CAD (7)
- Bauingenieurwesen (6)
- civil engineering (6)
- Finite-Elemente-Methode (4)
- Einspielen <Werkstoff> (3)
- shakedown analysis (3)
- Architektur (2)
- Traglast (2)
- architecture (2)
- limit analysis (2)
Teamsitzungen, Arbeitsgruppentreffen, Kickoffs und Meetings – sie alle werden mit dem Ziel durchgeführt, innerhalb einer vorgegebenen Zeitspanne ein gemeinsames Arbeitsziel zu erreichen. Damit die Zielerreichung auch bei komplexeren Arbeitsaufträgen nicht vom Zufall abhängt, empfiehlt es sich, die Leitung des Ablaufs einem Moderator zu übertragen.
In diesem Beitrag einer mehrteiligen Serie wird beschrieben, über welches Mindset der Moderator verfügen sollte, welche grundsätzlichen Methoden hilfreich sind und was bei der Onlinemoderation im Besonderen zu beachten ist.
Teamsitzungen, Arbeitsgruppentreffen, Kickoffs und Meetings – sie alle werden mit dem Ziel durchgeführt, innerhalb einer vorgegebenen Zeitspanne ein gemeinsames Arbeitsziel zu erreichen. Damit die Zielerreichung auch bei komplexeren Arbeitsaufträgen nicht vom Zufall abhängt, empfiehlt es sich, die Leitung des Ablaufs einem Moderator zu übertragen.
In diesem Beitrag einer dreiteiligen Serie wird beschrieben, über welches Mindset der Moderator verfügen sollte, welche grundsätzlichen Methoden hilfreich sind und was bei der Onlinemoderation im Besonderen zu beachten ist.
Hintergrund
Die Anwendung und das Verständnis von Statistik sind sehr wichtig für die biomedizinische Forschung und für die klinische Praxis. Dies gilt insbesondere auch zur Abschätzung der Möglichkeiten unterschiedlichster Diagnostik- und Therapieoptionen beim Glaukom. Die scheinbare Komplexität der Statistik, die zum Teil dem „gesunden Menschenverstand“ zu widersprechen scheint, zusammen mit der nur vorsichtigen Akzeptanz der Statistik bei vielen Medizinern können zu bewussten und unbewussten Manipulationen bei der Datendarstellung und -interpretation führen.
Ziel der Arbeit
Ziel ist die verständliche Darstellung einiger typischer Fehler in der medizinisch-statistischen Datenbehandlung.
Material und Methoden
Anhand hypothetischer Beispiele aus der Glaukomdiagnostik erfolgen die Darstellung der Wirkung eines hypotensiven Medikamentes sowie die Beurteilung der Ergebnisse eines diagnostischen Tests. Es werden die typischsten statistischen Einsatzbereiche und Irrtumsquellen ausführlich und verständlich analysiert
Ergebnisse
Mechanismen von Datenmanipulation und falscher Dateninterpretation werden aufgeklärt. Typische Irrtumsquellen bei der statistischen Auswertung und Datendarstellung werden dabei erläutert.
Schlussfolgerungen
Die erläuterten praktischen Beispiele zeigen die Notwendigkeit, die Grundlagen der Statistik zu verstehen und korrekt anwenden zu können. Fehlendes Grundlagenwissen und Halbwissen der medizinischen Statistik können zu folgenschweren Missverständnissen und falschen Entscheidungen in der medizinischen Forschung, aber auch in der klinischen Praxis führen.
Für die Verarbeitung von natürlicher Sprache ist ein wichtiger Zwischenschritt das Parsing, bei dem für Sätze der natürlichen Sprache Ableitungsbäume bestimmt werden. Dieses Verfahren ist vergleichbar zum Parsen formaler Sprachen, wie z. B. das Parsen eines Quelltextes. Die Parsing-Methoden der formalen Sprachen, z. B. Bottom-up-Parser, können nicht auf das Parsen der natürlichen Sprache übertragen werden, da keine Formalisierung der natürlichen Sprachen existiert [3, 12, 23, 30].
In den ersten Programmen, die natürliche Sprache verarbeiten [32, 41], wurde versucht die natürliche Sprache mit festen Regelmengen zu verarbeiten. Dieser Ansatz stieß jedoch schnell an seine Grenzen, da die Regelmenge nicht vollständig sowie nicht minimal ist und wegen der benötigten Menge an Regeln schwer zu verwalten ist. Die Korpuslinguistik [22] bot die Möglichkeit, die Regelmenge durch Supervised-Machine-Learning-Verfahren [2] abzulösen.
Teil der Korpuslinguistik ist es, große Textkorpora zu erstellen und diese mit sprachlichen Strukturen zu annotieren. Zu diesen Strukturen gehören sowohl die Wortarten als auch die Ableitungsbäume der Sätze. Vorteil dieser Methodik ist es, dass repräsentative Daten zur Verfügung stehen. Diese Daten werden genutzt, um mit Supervised-Machine-Learning-Verfahren die Gesetzmäßigkeiten der natürliche Sprachen zu erlernen.
Das Maximum-Entropie-Verfahren ist ein Supervised-Machine-Learning-Verfahren, das genutzt wird, um natürliche Sprache zu erlernen. Ratnaparkhi [25] nutzt Maximum-Entropie, um Ableitungsbäume für Sätze der natürlichen Sprache zu erlernen. Dieses Verfahren macht es möglich, die natürliche Sprache (abgebildet als Σ∗) trotz einer fehlenden formalen Grammatik zu parsen.
Mit Logik die Welt begreifen
(2005)
Miniaturisierte Referenzelektroden in Siliziumtechnologie für elektrochemische Sensoranwendungen
(2004)
Mechanik: Vorlesung
(1987)
Mathematik im ingenieurwissenschaftlichen Bachelorstudium : Lösung der Übungs- und Klausuraufgaben
(2010)
Markierungsfreie DNA-Detektion mit Silizium-Feldeffekt-Sensoren – Messeffekte oder Artefakte?
(2007)
LISA, ein europäisches Projekt zur direkten Berechnung der Tragfähigkeit duktiler Strukturen.
(1998)
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. Die Autoren möchten der Europäischen Kommission an dieser Stelle für die Förderung ausdrücklich danken. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist änhlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA geplante Zuverlässigkeitsanalyse ist erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar.
Traglast- und Einspielanalysen sind vereinfachte doch exakte Verfahren der Plastizität, die neben ausreichender Verformbarkeit keine einschränkenden Voraussetzungen beinhalten. Die Vereinfachungen betreffen die Beschaffung der Daten und Modelle für Details der Lastgeschichte und des Stoffverhaltens. Anders als die klassische Behandlung nichtlinearer Probleme der Strukturmechanik führt die Methode auf Optimierungsprobleme. Diese sind bei realistischen FEM-Modellen sehr groß. Das hat die industrielle Anwendung der Traglast- und Einspielanalysen stark verzögert. Diese Situation wird durch das Brite-EuRam Projekt LISA grundlegend geändert. In LISA entsteht auf der Basis des industriellen FEM-Programms PERMAS ein Verfahren zur direkten Berechnung der Tragfähigkeit duktiler Strukturen. Damit kann der Betriebsbereich von Komponenten und Bauwerken auf den plastischen Bereich erweitert werden, ohne den Aufwand gegenüber elastischen Analysen wesentlich zu erhöhen. Die beachtlichen Rechenzeitgewinne erlauben Parameterstudien und die Berechnung von Interaktionsdiagrammen, die einen schnellen Überblick über mögliche Betriebsbereiche vermitteln. Es zeigt sich, daß abhängig von der Komponente und ihren Belastungen teilweise entscheidende Sicherheitsgewinne zur Erweiterung der Betriebsbereiche erzielt werden können. Das Vorgehen erfordert vom Anwender oft ein gewisses Umdenken. Es werden keine Spannungen berechnet, um damit Sicherheit und Lebensdauer zu interpretieren. Statt dessen berechnet man direkt die gesuchte Sicherheit. Der Post-Prozessor wird nur noch zur Modell- und Rechenkontrolle benötigt. Das Vorgehen ist ähnlich der Stabilitätsanalyse (Knicken, Beulen). Durch namhafte industrielle Projektpartner werden Validierung und die Anwendbarkeit auf eine breite Palette technischer Probleme garantiert. Die ebenfalls in LISA entwickelten Zuverlässigkeitsanalysen sind nichlinear erst auf der Basis direkter Verfahren effektiv möglich. Ohne Traglast- und Einspielanalyse ist plastische Strukturoptimierung auch heute kaum durchführbar. Auf die vorgesehenen Erweiterungen der Werkstoffmodellierung für nichtlineare Verfestigung und für Schädigung konnte hier nicht eingegangen werden. Es herrscht ein deutlicher Mangel an Experimenten zum Nachweis der Grenzen zwischen elastischem Einspielen und dem Versagen durch LCF oder durch Ratchetting.
Limitierungsverfahren von Reihen mehrdimensionaler Kugelfunktionen und deren Saturationsverhalten
(1968)
Die vorliegende Arbeit untersucht das approximationstheoretische Verhalten von Summationsprozessen von Reihen von Kugelfunktionen, sogenannten Laplace-Reihen. Zunächst wird die Theorie der besten Approximation auf der Kugel, also die Erweiterung der Sätze von D. Jackson und S. Bernstein, skizziert. Nimmt man nun spezielle Verfahren zur Summation von Laplace-Reihen, dann lassen sich auch hier Sätze vom Jacksonschen und Bernsteinschen Typ beweisen. Darüber hinaus zeigen viele Verfahren ein Saturationsverhalten, d.h. es gibt eine nur vom Verfahren abhängige optimale Approximationsordnung. Das Saturationsproblem besteht nun darin, diejenige Klasse von Funktionen (Saturationsklasse) zu bestimmen, welche genau von der optimalen Ordnung approximiert werden.
Kompakte und perfekte Maße
(1983)
Kinematics and kinetics of handcycling propulsion at increasing workloads in able-bodied subjects
(2018)
In Paralympic sports, biomechanical optimisation of movements and equipment seems to be promising for improving performance. In handcycling, information about the biomechanics of this sport is mainly provided by case studies. The aim of the current study was (1) to examine changes in handcycling propulsion kinematics and kinetics due to increasing workloads and (2) identify parameters that are associated with peak aerobic performance. Twelve non-disabled male competitive triathletes without handcycling experience voluntarily participated in the study. They performed an initial familiarisation protocol and incremental step test until exhaustion in a recumbent racing handcycle that was attached to an ergometer. During the incremental test, tangential crank kinetics, 3D joint kinematics, blood lactate and ratings of perceived exertion (local and global) were identified. As a performance criterion, the maximal power output during the step test (Pmax) was calculated and correlated with biomechanical parameters. For higher workloads, an increase in crank torque was observed that was even more pronounced in the pull phase than in the push phase. Furthermore, participants showed an increase in shoulder internal rotation and abduction and a decrease in elbow flexion and retroversion. These changes were negatively correlated with performance. At high workloads, it seems that power output is more limited by the transition from pull to push phase than at low workloads. It is suggested that successful athletes demonstrate small alterations of their kinematic profile due to increasing workloads. Future studies should replicate and expand the test spectrum (sprint and continuous loads) as well as use methods like surface electromyography (sEMG) with elite handcyclists.
Härtebegriff im Zusammenhang mit Vernetzung, Bruchdehnung und Dauerfestigkeit eines Elastomers
(2003)
Agil ist im Trend und immer mehr Unternehmen, die ihre Projekte bisher nach klassischen Prinzipien durchführten, denken über den Einsatz agiler Methoden nach. Doch selbst wenn die Organisation bereits beide Philosophien unterstützt, gilt für ein Projekt meist die klare Vorgabe: agil oder klassisch. Es gibt aber noch einen anderen Ansatz, mit diesen "unterschiedlichen Welten" umzugehen: Und zwar die beiden Philosophien innerhalb eines Projekts zu kombinieren. Wie dies in der Praxis aussehen und gelingen kann, zeigen Dr. Michael Kirchhof und Prof. Dr. Bodo Kraft in diesem Beitrag.
Hochmolekulare Additive für die Gleitlagerschmierung. Spaltofski, R.; Sponagel, S.; Steinhilper, W.
(1988)
Gummi-Metall-Bauteile
(1987)
Der konstruktive Entwurf wird in derzeitigen CAD-Systemen gut unterstützt, nicht aber der konzeptuelle Gebäude-Entwurf. Dieser abstrahiert von konstruktiven Elementen wie Linie, Wand oder Decke, um auf die Konzepte, d.h. die eigentlichen Funktionen, heraus zu arbeiten. Diese abstraktere, funktionale Sichtweise auf ein Gebäude ist während der frühen Entwurfsphase essentiell, um Struktur und Organisation des gesamten Gebäudes zu erfassen. Bereits in dieser Phase muss Fachwissen (z. B. rechtliche, ökonomische und technische Bestimmungen) berücksichtigt werden. Im Rahmen des vorliegenden Projekts werden Software-Werkzeuge integriert in industrielle CAD-Systeme entwickelt, die den konzeptuellen Gebäude-Entwurf ermöglichen und diesen gegen Fachwissen prüfen. Das Projekt ist in zwei Teile gegliedert. Im Top-Down-Ansatz werden Datenstrukturen und Methoden zur Strukturierung, Repräsentation und Evaluation von gebäudespezifischem Fachwissen erarbeitet. Dieser Teil baut auf den graphbasierten Werkzeugen PROGRES und UPGRADE des Lehrstuhls auf. Der Bottom-Up-Ansatz ist industriell orientiert und hat zum Ziel, das kommerzielle CAD-System ArchiCAD zu erweitern. Hierbei soll der frühe, konzeptuelle Gebäude-Entwurf in einem CAD-System ermöglicht werden. Der Entwurf kann darüber hinaus gegen das definierte Fachwissen geprüft werden. Im Rahmen des graphbasierten Top-Down-Ansatzes wurde zunächst eine neue Spezifikationsmethode für die Sprache PROGRES entwickelt. Das PROGRES-System erlaubt die Spezifikation von Werkzeugen in deklarativer Form. Üblicherweise wird domänenspezifisches Fachwissen in der PROGRES-Spezifikation codiert, das daraus generierte visuelle Werkzeug stellt dann die entsprechende Funktionalität zur Verfügung. Mit dieser Methode sind am Lehrstuhl für Informatik III Werkzeuge für verschie-dene Anwendungsdomänen entstanden. In unserem Fall versetzen wir einen Domänen-Experten, z. B. einen erfahrenen Architekten, in die Lage, Fachwissen zur Laufzeit einzugeben, dieses zu evaluieren, abzuändern oder zu ergänzen. Im Rahmen der bisherigen Arbeit wurde dazu eine parametrisierte PROGRES-Spezifikation und zwei darauf aufbauende Werkzeuge entwickelt, welche die dynamische Eingabe von gebäude-technisch relevantem Fachwissen erlauben und einen graphbasierten, konzeptuellen Gebäude-Entwurf ermöglichen. In diesem konzeptuellen Gebäude-Entwurf wird von Raumgrößen und Positionen abstrahiert, um die funktionale Struktur eines Gebäudes zu beschreiben. Das Fachwissen kann von einem Architekten visuell definiert werden. Es können semantische Einheiten, im einfachsten Fall Räume, nach verschiedenen Kriterien kategorisiert und klassifiziert werden. Mit Hilfe von Attributen und Relationen können die semantischen Einheiten präziser beschrieben und in Beziehung zueinander gesetzt werden. Die in PROGRES spezifizierten Konsistenz-Analysen erlauben die Prüfung eines graphbasierten konzeptuellen Gebäude-Entwurfs gegen das dynamisch eingefügte Fachwissen. Im zweiten Teil des Forschungsprojekts, dem Bottom-Up-Ansatz, wird das CAD-System ArchiCAD erweitert, um den integrierten konzeptuellen Gebäude-Entwurf zu ermöglichen. Der Architekt erhält dazu neue Entwurfselemente, die Raumobjekte, welche die relevanten semantischen Einheiten während der frühen Entwurfsphase repräsentieren. Mit Hilfe der Raumobjekte kann der Architekt in ArchiCAD den Grundriss und das Raumprogramm eines Gebäudes entwerfen, ohne von konstruktiven Details in seiner Kreativität eingeschränkt zu werden. Die Arbeitsweise mit Raumobjekten entspricht dem informellen konzeptuellen Entwurf auf einer Papierskizze und ist daher für den Architekten intuitiv und einfach zu verwenden. Durch die Integration in ArchiCAD ergibt sich eine weitere Unterstützung: Das im Top-Down-Ansatz spezifizierte Fach-wissen wird verwendet, um den konzeptuellen Gebäude-Entwurf des Architekten auf Regelverletzungen zu überprüfen. Entwurfsfehler werden angezeigt. Zum Abschluss des konzeptuellen Gebäude-Entwurfs mit Raumobjekten wird durch ein weiteres neu entwickeltes Werkzeug eine initiale Wandstruktur automatisch erzeugt, die als Grundlage für die folgenden konstruktiven Entwurfsphasen dient. Alle beschriebenen Erwei-terungen sind in ArchiCAD integriert, sie sind für den Architekten daher leicht zu erlernen und einfach zu bedienen.
In: Proceedings of the 39th Annual Hawaii International Conference on System Sciences, 2006. HICSS '06 http://dx.doi.org/10.1109/HICSS.2006.200 The conceptual design phase at the beginning of the building construction process is not adequately supported by any CAD-tool. Conceptual design support needs regarding two aspects: first, the architect must be able to develop conceptual sketches that provide abstraction from constructive details. Second, conceptually relevant knowledge should be available to check these conceptual sketches. The paper deals with knowledge to formalize for conceptual design. To enable domain experts formalizing knowledge, a graph-based specification is presented that allows the development of a domain ontology and design rules specific for one class of buildings at runtime. The provided tool support illustrates the introduced concepts and demonstrates the consistency analysis between knowledge and conceptual design.
The concept of an injective affine embedding of the quantum states into a set of classical states, i.e., into the set of the probability measures on some measurable space, as well as its relation to statistically complete observables is revisited, and its limitation in view of a classical reformulation of the statistical scheme of quantum mechanics is discussed. In particular, on the basis of a theorem concerning a non-denseness property of a set of coexistent effects, it is shown that an injective classical embedding of the quantum states cannot be supplemented by an at least approximate classical description of the quantum mechanical effects. As an alternative approach, the concept of quasi-probability representations of quantum mechanics is considered.
"Biologie trifft Mikroelektronik", das Motto des Instituts für Nano- und Biotechnologien (INB) an der FH Aachen, unterstreicht die zunehmende Bedeutung interdisziplinär geprägter Forschungsaktivitäten. Der thematische Zusammenschluss grundständiger Disziplinen, wie die Physik, Elektrotechnik, Chemie, Biologie sowie die Materialwissenschaften, lässt neue Forschungsgebiete entstehen, ein herausragendes Beispiel hierfür ist die Nanotechnologie: Hier werden neue Werkstoffe und Materialien entwickelt, einzelne Nanopartikel oder Moleküle und deren Wechselwirkung untersucht oder Schichtstrukturen im Nanometerbereich aufgebaut, die neue und vorher nicht bekannte Eigenschaften hervorbringen.
Vor diesem Hintergrund bündelt das im Jahre 2006 gegründete INB die an der FH Aachen vorhandenen Kompetenzen von derzeit insgesamt sieben Laboratorien auf den Gebieten der Halbleitertechnik und Nanoelektronik, Nanostrukturen und DNA-Sensorik, der Chemo- und Biosensorik, der Enzymtechnologie, der Mikrobiologie und Pflanzenbiotechnologie, der Zellkulturtechnik, sowie der Roten Biotechnologie synergetisch. In der Nano- und Biotechnologie steckt außergewöhnliches Potenzial! Nicht zuletzt deshalb stellen sich die Forscher der Herausforderung, in diesem Bereich gemeinsam zu forschen und Schnittstellen zu nutzen, um so bei der Gestaltung neuartiger Ideen und Produkte mitzuwirken, die zukünftig unser alltägliches Leben verändern werden.
Im Folgenden werden die verschiedenen Forschungsbereiche kurz zusammenfassend vorgestellt und vorhandene Interaktionen anhand von exemplarisch ausgewählten, aktuellen Forschungsprojekten skizziert.