Springer
Filtern
Erscheinungsjahr
Institut
- Fachbereich Wirtschaftswissenschaften (9)
- Fachbereich Elektrotechnik und Informationstechnik (7)
- Fachbereich Medizintechnik und Technomathematik (5)
- Fachbereich Luft- und Raumfahrttechnik (4)
- Fachbereich Maschinenbau und Mechatronik (4)
- Fachbereich Bauingenieurwesen (3)
- IfB - Institut für Bioengineering (3)
- ECSM European Center for Sustainable Mobility (2)
- Fachbereich Energietechnik (2)
- Solar-Institut Jülich (2)
Sprache
- Deutsch (40) (entfernen)
Dokumenttyp
Schlagworte
- Prozessautomatisierung (3)
- Digitale Transformation (2)
- Robotic Process Automation (2)
- Arbeit 4.0 (1)
- Bahadur efficiency (1)
- Chatbots (1)
- Cloud Computing (1)
- Datenschutz (1)
- Deep Learning (1)
- Digitalisierung (1)
Generating synthetic LiDAR point cloud data for object detection using the Unreal Game Engine
(2024)
Object detection based on artificial intelligence is ubiquitous in today’s computer vision research and application. The training of the neural networks for object detection requires large and high-quality datasets. Besides datasets based on image data, datasets derived from point clouds offer several advantages. However, training datasets are sparse and their generation requires a lot of effort, especially in industrial domains. A solution to this issue offers the generation of synthetic point cloud data. Based on the design science research method, the work at hand proposes an approach and its instantiation for generating synthetic point cloud data based on the Unreal Engine. The point cloud quality is evaluated by comparing the synthetic cloud to a real-world point cloud. Within a practical example the applicability of the Unreal Game engine for synthetic point cloud generation could be successfully demonstrated.
The efficiency concepts of Bahadur and Pitman are used to compare the Wilcoxon tests in paired and independent survey samples. A comparison through the length of corresponding confidence intervals is also done. Simple conditions characterizing the dominance of a procedure are derived. Statistical tests for checking these conditions are suggested and discussed.
Nutzen und Rahmenbedingungen 5 informationsgetriebener Geschäftsmodelle des Internets der Dinge
(2018)
Im Kontext der zunehmenden Digitalisierung wird das Internet der Dinge (englisch: Internet of Things, IoT) als ein technologischer Treiber angesehen, durch den komplett neue Geschäftsmodelle im Zusammenspiel unterschiedlicher Akteure entstehen können. Identifizierte Schlüsselakteure sind unter anderem traditionelle Industrieunternehmen, Kommunen und Telekommunikationsunternehmen. Letztere sorgen mit der Bereitstellung von Konnektivität dafür, dass kleine Geräte mit winzigen Batterien nahezu überall und direkt an das Internet angebunden werden können. Es sind schon viele IoT-Anwendungsfälle auf dem Markt, die eine Vereinfachung für Endkunden darstellen, wie beispielsweise Philips Hue Tap. Neben Geschäftsmodellen basierend auf Konnektivität besteht ein großes Potenzial für informationsgetriebene Geschäftsmodelle, die bestehende Geschäftsmodelle unterstützen sowie weiterentwickeln können. Ein Beispiel dafür ist der IoT-Anwendungsfall Park and Joy der Deutschen Telekom AG, bei dem Parkplätze mithilfe von Sensoren vernetzt und Autofahrer in Echtzeit über verfügbare Parkplätze informiert werden. Informationsgetriebene Geschäftsmodelle können auf Daten aufsetzen, die in IoT-Anwendungsfällen erzeugt werden. Zum Beispiel kann ein Telekommunikationsunternehmen Mehrwert schöpfen, indem es aus Daten entscheidungsrelevantere Informationen – sogenannte Insights – ableitet, die zur Steigerung der Entscheidungsagilität genutzt werden. Außerdem können Insights monetarisiert werden. Die Monetarisierung von Insights kann nur nachhaltig stattfinden, wenn sorgfältig gehandelt wird und Rahmenbedingungen berücksichtigt werden. In diesem Kapitel wird das Konzept informationsgetriebener Geschäftsmodelle erläutert und anhand des konkreten Anwendungsfalls Park and Joy verdeutlicht. Darüber hinaus werden Nutzen, Risiken und Rahmenbedingungen diskutiert.
Im Rahmen der digitalen Transformation werden innovative Technologiekonzepte, wie z. B. das Internet der Dinge und Cloud Computing als Treiber für weitreichende Veränderungen von Organisationen und Geschäftsmodellen angesehen. In diesem Kontext ist Robotic Process Automation (RPA) ein neuartiger Ansatz zur Prozessautomatisierung, bei dem manuelle Tätigkeiten durch sogenannte Softwareroboter erlernt und automatisiert ausgeführt werden. Dabei emulieren Softwareroboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Die innovative Idee ist die Transformation der bestehenden Prozessausführung von manuell zu digital, was RPA von traditionellen Ansätzen des Business Process Managements (BPM) unterscheidet, bei denen z. B. prozessgetriebene
Anpassungen auf Ebene der Geschäftslogik notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Gerade bei operativen Prozessen mit sich wiederholenden Verarbeitungsschritten in unterschiedlichen Anwendungssystemen sind gute Ergebnisse durch RPA dokumentiert, wie z. B. die Automatisierung von 35 % der Backoffice-Prozesse bei Telefonica. Durch den vergleichsweise niedrigen Implementierungsaufwand verbunden mit einem hohen Automatisierungspotenzial ist in der Praxis (z. B. Banken, Telekommunikation, Energieversorgung) ein hohes Interesse an RPA vorhanden. Der Beitrag diskutiert RPA als innovativen Ansatz zur
Prozessdigitalisierung und gibt konkrete Handlungsempfehlungen für die Praxis. Dazu wird zwischen modellgetriebenen und selbstlernenden Ansätzen unterschieden. Anhand von generellen Architekturen von RPA-Systemen werden Anwendungsszenarien sowie deren Automatisierungspotenziale, aber auch Einschränkungen, diskutiert. Es folgt ein strukturierter Marktüberblick ausgewählter RPA-Produkte. Anhand von drei konkreten Anwendungsbeispielen wird die Nutzung von RPA in der Praxis verdeutlicht.
Der Telekommunikationsmarkt erfährt substanzielle Veränderungen. Neue Geschäftsmodelle, innovative Dienstleistungen und Technologien erfordern Reengineering, Transformation und Prozessstandardisierung. Mit der Enhanced Telecom Operation Map (eTOM) bietet das TM Forum ein international anerkanntes de facto Referenz-Prozess-Framework basierend auf spezifischen Anforderungen und Ausprägungen der Telekommunikationsindustrie an. Allerdings enthält dieses Referenz-Framework nur eine hierarchische Sammlung von Prozessen auf unterschiedlichen Abstraktionsebenen. Eine Kontrollsicht verstanden als sequenzielle Anordnung von Aktivitäten und daraus resultierend ein realer Prozessablauf fehlt ebenso wie eine Ende-zu-Ende-Sicht auf den Kunden. In diesem Artikel erweitern wir das eTOM-Referenzmodell durch Referenzprozessabläufe, in welchen wir das Wissen über Prozesse in Telekommunikationsunternehmen abstrahieren und generalisieren. Durch die Referenzprozessabläufe werden Unternehmen bei dem strukturierten und transparenten (Re-)Design ihrer Prozesse unterstützt. Wir demonstrieren die Anwendbarkeit und Nützlichkeit unserer Referenzprozessabläufe in zwei Fallstudien und evaluieren diese anhand von Kriterien für die Bewertung von Referenzmodellen. Die Referenzprozessabläufe wurden vom TM Forum in den Standard aufgenommen und als Teil von eTOM Version 9 veröffentlicht. Darüber hinaus diskutieren wir die Komponenten unseres Ansatzes, die auch außerhalb der Telekommunikationsindustrie angewandt werden können.
Im Rahmen der Digitalisierung ist die zunehmende Automatisierung von bisher manuellen Prozessschritten ein Aspekt, der massive Auswirkungen auf die zukünftige Arbeitswelt haben wird. In diesem Kontext werden an den Einsatz von Softwarerobotern zur Prozessautomatisierung hohe Erwartungen geknüpft. Bei den Implementierungsansätzen wird die Diskussion aktuell insbesondere durch Robotic Process Automation (RPA) und Chatbots geprägt. Beide Ansätze verfolgen das gemeinsame Ziel einer 1:1-Automatisierung von menschlichen Handlungen und dadurch ein direktes Ersetzen von Mitarbeitern durch Maschinen. Bei RPA werden Prozesse durch Softwareroboter erlernt und automatisiert ausgeführt. Dabei emulieren RPA-Roboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Durch Chatbots werden Ein- und Ausgaben von Anwendungssystemen über natürliche Sprache realisiert. Dadurch ist die Automatisierung von unternehmensexterner Kommunikation (z. B. mit Kunden) aber auch von unternehmensinternen Assistenztätigkeiten möglich. Der Beitrag diskutiert die Auswirkungen von Softwarerobotern auf die Arbeitswelt anhand von Anwendungsbeispielen und erläutert die unternehmensindividuelle Entscheidung über den Einsatz von Softwarerobotern anhand von Effektivitäts- und Effizienzzielen.
Schlafspindeln – Funktion, Detektion und Nutzung als Biomarker für die psychiatrische Diagnostik
(2022)
Hintergrund:
Die Schlafspindel ist ein Graphoelement des Elektroenzephalogramms
(EEG), das im Leicht- und Tiefschlaf beobachtet werden kann. Veränderungen der
Spindelaktivität wurden für verschiedene psychiatrische Erkrankungen beschrieben. Schlafspindeln zeigen aufgrund ihrer relativ konstanten Eigenschaften Potenzial als Biomarker in der psychiatrischen Diagnostik.
Methode:
Dieser Beitrag liefert einen Überblick über den Stand der Wissenschaft
zu Eigenschaften und Funktionen der Schlafspindeln sowie über beschriebene
Veränderungen der Spindelaktivität bei psychiatrischen Erkrankungen. Verschiedene methodische Ansätze und Ausblicke zur Spindeldetektion werden hinsichtlich deren Anwendungspotenzial in der psychiatrischen Diagnostik erläutert.
Ergebnisse und Schlussfolgerung:
Während Veränderungen der Spindelaktivität
bei psychiatrischen Erkrankungen beschrieben wurden, ist deren exaktes Potenzial für die psychiatrische Diagnostik noch nicht ausreichend erforscht. Diesbezüglicher Erkenntnisgewinn wird in der Forschung gegenwärtig durch ressourcenintensive und fehleranfällige Methoden zur manuellen oder automatisierten Spindeldetektion ausgebremst. Neuere Detektionsansätze, die auf Deep-Learning-Verfahren basieren, könnten die Schwierigkeiten bisheriger Detektionsmethoden überwinden und damit neue Möglichkeiten für die praktisch
Cloud Computing wirft in zahlreichen Rechtsbereichen neuartige juristische Fragestellungen auf. Ziel der Darstellung der rechtlichen Rahmenbedingungen ist, die das Identitätsmanagement in der Cloud betreffenden Rechtsgrundlagen aus den unterschiedlichen Rechtsgebieten vorzustellen und einzuordnen, bevor im Rahmen des sechsten Kapitels die Darstellung der hieraus resultierenden Verpflichtungen in ihrer konkreten Form erfolgt.
Die Datenschutz-Grundverordnung (DS-GVO) regelt in ihrem Art. 3 das räumlich anwendbare Datenschutzrecht und zielt dabei gerade auch auf Angebote nichteuropäischer Diensteanbieter ab. Die bisherige Diskussion konzentriert sich bislang in erster Linie darauf, das eingeführte Marktortprinzip zu thematisieren; das weitgehend unangetastete
Niederlassungsprinzip und vor allem die Probleme, die sich durch dessen unveränderte Beibehaltung ergeben, werden dagegen nicht erörtert. Der folgende Beitrag versucht sich an einer systematischen Analyse eines teils kontrovers, teils kaum diskutierten Themas.
Häufig bremsen geringe IT-Ressourcen, fehlende Softwareschnittstellen oder eine veraltete und komplex gewachsene Systemlandschaft die Automatisierung von Geschäftsprozessen. Robotic Process Automation (RPA) ist eine vielversprechende Methode, um Geschäftsprozesse oberflächenbasiert und ohne größere Systemeingriffe zu automatisieren und Medienbrüche abzubauen. Die Auswahl der passenden Prozesse ist dabei für den Erfolg von RPA-Projekten entscheidend. Der vorliegende Beitrag liefert dafür Selektionskriterien, die aus einer qualitativen Inhaltanalyse von elf Interviews mit RPA-Experten aus dem Versicherungsumfeld resultieren. Das Ergebnis umfasst eine gewichtetet Liste von sieben Dimensionen und 51 Prozesskriterien, welche die Automatisierung mit Softwarerobotern begünstigen bzw. deren Nichterfüllung eine Umsetzung erschweren oder sogar verhindern. Die drei wichtigsten Kriterien zur Auswahl von Geschäftsprozessen für die Automatisierung mittels RPA umfassen die Entlastung der an dem Prozess mitwirkenden Mitarbeiter (Arbeitnehmerüberlastung), die Ausführbarkeit des Prozesses mittels Regeln (Regelbasierte Prozessteuerung) sowie ein positiver Kosten-Nutzen-Vergleich. Praktiker können diese Kriterien verwenden, um eine systematische Auswahl von RPA-relevanten Prozessen vorzunehmen. Aus wissenschaftlicher Perspektive stellen die Ergebnisse eine Grundlage zur Erklärung des Erfolgs und Misserfolgs von RPA-Projekten dar.
Geld-zurück-Garantien erlangen in der Unternehmenspraxis eine immer größere Bedeutung, vor allem weil sie als probates Mittel zur Signalisierung hochwertiger Qualität angesehen werden – eine Annahme, die bislang wissenschaftlich ungeprüft geblieben ist. Vor diesem Hintergrund wird im vorliegenden Beitrag eine umfassende empirische Untersuchung der kaufverhaltensrelevanten Wirkungen dieses Marketinginstrumentes vorgenommen. Die Ergebnisse verdeutlichen zum einen, dass eine Geld-zurück-Garantie nur unter bestimmten Bedingungen als Qualitätssignal wirkt. Dies hängt neben der Art des Produktes (Erfahrungs- vs. Suchgut) insbesondere von der Ausprägung des für die Qualitätsbeurteilung besonders diagnostischen Merkmals Marke sowie von der Produktkenntnis der Konsumenten ab. Zum anderen zeigt sich aber auch, dass eine Geld-zurück-Garantie affektive Konsumentenreaktionen auslöst, die die Kaufabsicht von Konsumenten zusätzlich erhöhen können. Zusammenfassend stellen wir fest, dass eine Geld-zurück-Garantie – entgegen bisheriger Erwartungen aus der Praxis – nicht zwingend ein Qualitätsindikator ist, stattdessen entfaltet sie aber bisher unbeachtete affektive Wirkungen, die insbesondere auf ihre absichernde Funktion von etwaigen Fehlentscheidungen beim Kauf zurückzuführen sind.
In modernen Fahrzeugkarosserien der Großserie kommen zunehmend Materialmischbauweisen zur Anwendung. In Zusammenarbeit der Daimler AG, der Tower Automotive Holding GmbH, der Imperia GmbH sowie der Partnerunternehmen KSM Castings GmbH und Schaufler Tooling GmbH & Co. KG wird das Leichtbaupotenzial von Aluminiumverbundguss-Stahlblech-Hybriden am Beispiel des vorderen Dachquerträgers des Mercedes-Benz Viano/Vito ausführlich untersucht.
In modernen Fahrzeugkarosserien der Großserie kommen zunehmend Materialmischbauweisen
zur Anwendung. In Zusammenarbeit der Daimler AG, der Tower Automotive Holding
GmbH, der Imperia GmbH sowie der Partnerunternehmen KSM Castings GmbH und Schaufler
Tooling GmbH & Co. KG wird das Leichtbaupotenzial von Stahlblech-AluminiumverbundgussHybriden
am Beispiel des vorderen Dachquerträgers des Mercedes-Benz Viano/Vito ausführlich
untersucht.
Implikationen der Digitalisierung für den Finanzbereich der Unternehmung und das Rollenbild des CFO
(2017)
Regardless of size or destination, synthetic biology starts with com-parably small information units, which need to be combined and properly arranged in order to achieve a certain goal. This may be the de novo synthesis of individual genes from oligonucleotides, a shuffling of protein domains in order to create novel biocatalysts, the assembly of multiple enzyme encoding genes in metabolic pathway design, or strain development at the production stage. The CoLibry concept has been designed in order to close the gap between recombinant production of individual genes and genome editing.
Hintergrund
Die Anwendung und das Verständnis von Statistik sind sehr wichtig für die biomedizinische Forschung und für die klinische Praxis. Dies gilt insbesondere auch zur Abschätzung der Möglichkeiten unterschiedlichster Diagnostik- und Therapieoptionen beim Glaukom. Die scheinbare Komplexität der Statistik, die zum Teil dem „gesunden Menschenverstand“ zu widersprechen scheint, zusammen mit der nur vorsichtigen Akzeptanz der Statistik bei vielen Medizinern können zu bewussten und unbewussten Manipulationen bei der Datendarstellung und -interpretation führen.
Ziel der Arbeit
Ziel ist die verständliche Darstellung einiger typischer Fehler in der medizinisch-statistischen Datenbehandlung.
Material und Methoden
Anhand hypothetischer Beispiele aus der Glaukomdiagnostik erfolgen die Darstellung der Wirkung eines hypotensiven Medikamentes sowie die Beurteilung der Ergebnisse eines diagnostischen Tests. Es werden die typischsten statistischen Einsatzbereiche und Irrtumsquellen ausführlich und verständlich analysiert
Ergebnisse
Mechanismen von Datenmanipulation und falscher Dateninterpretation werden aufgeklärt. Typische Irrtumsquellen bei der statistischen Auswertung und Datendarstellung werden dabei erläutert.
Schlussfolgerungen
Die erläuterten praktischen Beispiele zeigen die Notwendigkeit, die Grundlagen der Statistik zu verstehen und korrekt anwenden zu können. Fehlendes Grundlagenwissen und Halbwissen der medizinischen Statistik können zu folgenschweren Missverständnissen und falschen Entscheidungen in der medizinischen Forschung, aber auch in der klinischen Praxis führen.
In diesem Artikel werden zunächst einleitend der Gasmarkt Deutschland und der sich daraus ergebende Speicherbedarf skizziert. Folgend wird auf verschiedene Speichernutzen aus betriebswirtschaftlicher Perspektive eingegangen und die in diesem Artikel vorgestellten Bewertungsverfahren einleitend beschrieben. In diesem Artikel werden stochastische Optimierungsmethoden aufgegriffen, die sowohl eine Bewertung der Speicher gegenüber einem Spotpreis, als auch gegenüber einer gesamten Forwardcurve ermöglichen. Hierzu werden zunächst Modelle zur Beschreibung der Marktpreise vorgestellt und anhand empirischer Daten kalibriert. Dann wird eine beispielhafte Speicherscheibe zunächst auf Basis der LeastSquareMonteCarloTechnik gegenüber dem stochastischen mehrfaktoriellen Spotpreismodell bewertet. Hieran schließt sich die Vorstellung der Bewertung sowie des Hedgings gegenüber der Forwardcurve an. Abschließend erfolgt eine vergleichende Gegenüberstellung beider Verfahren.
Für die Erstellung von Maschinenbelegungsplanen wurden im Operations Research aufwendige Optimierungsverfahren konzipiert und entsprechende Programme entwickelt. Maschinenbelegungsprobleme sind klassische Vertreter der Klasse der np-vollständigen Probleme, also sichere Kandidaten für kombinatorische Explosion der Lösungsalternativen. Deshalb ist der Einsatz konventioneller Planungssysteme wegen der hohen Rechneranforderungen der gängigen Verfahren an die Hardware oft nicht praktikabel.
Bussysteme
(2006)
Hybride Produktionssysteme
(2011)
Während die virtuelle Produktentstehungskette große Gestaltungsfreiräume bietet, ist die reale Produktentstehungskette durch wesentlich mehr Randbedingungen gekennzeichnet, die nicht oder nur ansatzweise beeinflussbar sind. Die Realisierung des aus logistischer Sicht optimalen One-Piece-Flow bei gleichzeitiger Steigerung von Flexibilität und Produktivität sowie des Verschiebens der Grenze des technologisch Machbaren müssen in zukünftigen Forschungsansätzen gleichermaßen betrachtet werden. Die Grenzverschiebung auf Basis der Integration von Technologien ist dabei ein viel versprechender Ansatz, der es in vielen Fällen ermöglicht, in allen genannten Zielrichtungen gleichermaßen Potentiale zu erschließen.
Mikrokleben
(2005)
Die Fahrzeugkarosserie bildet als größte funktionale und organisatorische Systemeinheit ein zentrales Kompetenzfeld der OEMs. Für den Fahrzeughersteller stellt der Karosserierohbau eine hohe Kernkompetenz sowohl in der Produktentwicklung als auch in der Produktion dar. Neue, innovative Karosseriebauweisen, bspw. aufgrund eines neuen Fahrzeugkonzeptes oder neuer Anforderungen, bedeuten für den OEM auch gleichzeitig die intensive Auseinandersetzung mit Kompetenzfokussierung bzw. Wertschöpfungsverlagerungen.
Der Verein Deutscher Ingenieure e.V. (VDI) ist ein gemeinnütziger, wirtschaftlich und politisch unabhängiger, technisch-wissenschaftlicher Verein von Ingenieuren und Naturwissenschaftlern. Mit über 137 000 persönlich zugeordneten Mitgliedern ist er eine der größten Ingenieur-Vereinigungen Europas und gilt in Deutschland als führender Sprecher der Technik und der Ingenieure. 1856 gegründet, hat er viele für die Technik wesentliche Entwicklungen in Gang gesetzt, so im Bereich der technischen Überwachung, der technischen Regelsetzung und Normung, der Arbeitsstudien, im gewerblichen Rechtsschutz und im Patentwesen. Seit seiner Gründung sieht es der VDI als seine Aufgabe, "das Zusammenwirken aller geistiger Kräfte der Technik im Bewusstsein ethischer Verantwortung zu fördern" und die Lebensmöglichkeiten aller Menschen durch Entwicklung und sinnvoller Anwendung technischer Mittel zu verbessern.
Partikelmesstechnik
(2012)
Der Schutz von Produkten vor der Kontamination durch Partikel gilt als eine zentrale Aufgabe der Reinraumtechnik. Da es dabei um Kontaminationseffekte weit unterhalb der visuellen Wahrnehmbarkeit geht, braucht es leistungsfähige Verfahren, um die Messgröße „Partikelkontamination“ über den gesamten Bereich, den Anwender fordern, präzise zu bestimmen. Neben der Partikelhäufigkeit ist dabei die Größe der Partikel, die sowohl das Transportverhalten wie auch die mögliche Wirkung auf das Produkt beeinflusst, von entscheidender Bedeutung. Ferner kann es für die Ermittlung von Kontaminationsquellen von Interesse sein, die Form und die chemische Natur der Partikel zu bestimmen (z. B. textile Fasern, Metallabrieb, flüssige Tröpfchen). Die Partikelhäufigkeit wird üblicherweise als Konzentration, d. h. bezogen auf das analysierte Gasvolumen angegeben. Bei den in reinen Technologien üblichen niedrigen Konzentrationen dient als Häufigkeitsmaß die Partikelanzahlkonzentration, also die Partikelanzahl pro Volumeneinheit des Trägermediums.
Ein 34-jähriger männlicher Patient stellte sich zur Abklärung einer seit dem 9. Lebensjahr bestehenden und im letzten Jahr rasch progredienten Visusminderung beider Augen bei uns vor. Er beschrieb eine subjektiv zunehmende, im Spiegel für ihn selbst sichtbare, weißliche Trübung in der Pupille beidseits und eine starke Blendempfindlichkeit. Nebenbefundlich gab er rezidivierende Konjunktivitiden und morgens verklebte Lider an. Eine Allergie auf Gräserpollen und eine Unverträglichkeit auf Alkohol sowie mehrere Lebensmittel seien ebenfalls bekannt.
Zusätzlich leidet der Patient an stark ausgeprägtem atopischem Ekzem. Dieses wurde nie systemisch, sondern nur bei Bedarf mit kortisonhaltiger Salbe therapiert.
Bilaterale stromale Hornhauttrübungen sind für den Augenarzt eine differenzialdiagnostische Herausforderung. Im folgenden Beitrag werden 2 Patieninnen (30 und 36 Jahre) mit unterschiedlich stark ausgeprägter stromaler diffuser Hornhauttrübung vorgestellt. Patientin 1 war kleinwüchsig (114 cm) und Patientin 2 normal groß (172 cm). Beide Patientinnen wiesen veränderte Gelenkstrukturen an Hand und Fußgelenken sowie diffuse stromale Hornhauttrübungen auf. Des Weiteren lagen eine Mitral- und Aorteninsuffizienz (Patientin 1) bzw. eine Aorteninsuffizienz (Patientin 2) vor. Die stromalen diffusen Hornhauttrübungen ließen im Zusammenhang mit den Gelenkveränderungen ein Scheie-Syndrom vermuten. Therapeutisch ist bei Patienten mit Visusminderung eine (lamelläre) Keratoplastik sinnvoll.
Arbeitswissenschaft
(2001)
Unter Arbeit wird das Tätigsein des Menschen verstanden, bei dem dieser mit anderen Menschen und (technischen) Hilfsmitteln in Interaktion tritt, um unter wirtschaftlichen Zielsetzungen Güter und Dienstleistungen zu erstellen (Luczak, 1998a). Arbeit dient direkt oder indirekt der Erhaltung der eigenen Existenz und der Existenz der Gesellschaft. Arbeit ist deshalb eine besondere Form des Tätigseins neben anderen wie Spiel, Sport, Lemen usw.
Die vorliegende Arbeit zeichnet sich dadurch aus, dass registrierte unsegmentierte Volumina aus multimodalen Bilddatensätzen (z.B. MRT, PET) gleichzeitig in einer 3D-Rekonstruktion visualisiert werden und in Echtzeit manipuliert werden können. Ermöglicht wird die Echtzeitfähigkeit durch die Programmierung der Algorithmen zur direkten Volumenvisualisierung auf der Grafikkarte mittels der neuen CUDA-Technologie. Die Zuordnung der Farbeigenschaften wird über 1D-Transferfunktionen für jedes Volumen getrennt gesteuert. So können durch die interaktive Veränderung der 1D-Transferfunktion Detailinformationen aus den zwei Bilddatensätzen getrennt kontrolliert werden und die Vorteile der verschiedenen Bildmodalitäten in einer Visualisierung genutzt werden. Mittels dieses interaktiven Frameworks können neue Erkenntnisse insbesondere über neurodegenerativen Erkrankungen gewonnen werden.