Refine
Year of publication
Document Type
- Article (95)
- Conference Proceeding (45)
- Book (31)
- Part of a Book (16)
- Bachelor Thesis (1)
- Patent (1)
- Report (1)
Keywords
- Blitzschutz (4)
- Lightning protection (4)
- Literaturanalyse (3)
- Digitale Transformation (2)
- Digitalisierung (2)
- Erneuerbare Energien (2)
- Forschungsprozess (2)
- Hybridsystem (2)
- Robotic Process Automation (2)
- Text Analytics (2)
- cyber physical production system (2)
- digital shadow (2)
- photovoltaic system (2)
- renewable energy (2)
- wind turbine (2)
- 3D-Printing (1)
- Actuator disk modelling (1)
- Aeroelasticity (1)
- Alternative Energiequelle (1)
- Antarctica (1)
Institute
- Fachbereich Energietechnik (60)
- Fachbereich Elektrotechnik und Informationstechnik (54)
- Fachbereich Luft- und Raumfahrttechnik (21)
- Solar-Institut Jülich (17)
- Fachbereich Maschinenbau und Mechatronik (12)
- Fachbereich Medizintechnik und Technomathematik (12)
- ECSM European Center for Sustainable Mobility (9)
- IfB - Institut für Bioengineering (5)
- Fachbereich Wirtschaftswissenschaften (4)
- Fachbereich Bauingenieurwesen (3)
- INB - Institut für Nano- und Biotechnologien (3)
- Fachbereich Chemie und Biotechnologie (2)
- Fachbereich Gestaltung (2)
- Sonstiges (2)
- Nowum-Energy (1)
A High-Throughput Functional Complementation Assay for Classification of BRCA1 Missense Variants
(2013)
IT-Sicherheit im Automobil
(2014)
The constitutive androstane receptor (CAR) and the pregnane X receptor (PXR) are closely related nuclear receptors involved in drug metabolism and play important roles in the mechanism of phenobarbital (PB)-induced rodent nongenotoxic hepatocarcinogenesis. Here, we have used a humanized CAR/PXR mouse model to examine potential species differences in receptor-dependent mechanisms underlying liver tissue molecular responses to PB. Early and late transcriptomic responses to sustained PB exposure were investigated in liver tissue from double knock-out CAR and PXR (CARᴷᴼ-PXRᴷᴼ), double humanized CAR and PXR (CARʰ-PXRʰ), and wild-type C57BL/6 mice. Wild-type and CARʰ-PXRʰ mouse livers exhibited temporally and quantitatively similar transcriptional responses during 91 days of PB exposure including the sustained induction of the xenobiotic response gene Cyp2b10, the Wnt signaling inhibitor Wisp1, and noncoding RNA biomarkers from the Dlk1-Dio3 locus. Transient induction of DNA replication (Hells, Mcm6, and Esco2) and mitotic genes (Ccnb2, Cdc20, and Cdk1) and the proliferation-related nuclear antigen Mki67 were observed with peak expression occurring between 1 and 7 days PB exposure. All these transcriptional responses were absent in CARᴷᴼ-PXRᴷᴼ mouse livers and largely reversible in wild-type and CARʰ-PXRʰ mouse livers following 91 days of PB exposure and a subsequent 4-week recovery period. Furthermore, PB-mediated upregulation of the noncoding RNA Meg3, which has recently been associated with cellular pluripotency, exhibited a similar dose response and perivenous hepatocyte-specific localization in both wild-type and CARʰ-PXRʰ mice. Thus, mouse livers coexpressing human CAR and PXR support both the xenobiotic metabolizing and the proliferative transcriptional responses following exposure to PB.
Unsteady flow measurements in the wake behind a wind-tunnel car model by using high-speed planar PIV
(2015)
This study investigates unsteady characteristics of the wake behind a 28%-scale car model in a wind tunnel using highspeed planar particle image velocimetry (PIV). The car model is based on a hatchback passenger car that is known to have relatively high fluctuations in its aerodynamic loads. This study primarily focuses on the lateral motion of the flow on the horizontal plane to determine the effect of the flow motion on the straight-line stability and the initial steering response of the actual car on a track. This paper first compares the flow fields in the wake behind the above mentioned model obtained using conventional and high-speed planar PIV, with sampling frequencies of 8 Hz and 1 kHz, respectively. Large asymmetrically coherent flow structures, which fluctuate at frequencies below 2 Hz, are observed in the results of highspeed PIV measurements, whereas conventional PIV is unable to capture these features of the flow owing to aliasing. This flow pattern with a laterally swaying motion is represented by opposite signs of cross-correlation coefficients of streamwise velocity fluctuations for the two sides of the car model. Effects of two aerodynamic devices that are known to reduce the
fluctuation levels of the aerodynamic loads are then extensively investigated. The correlation analyses reveal that these devices indeed reduce the fluctuation levels of the flow and the correlation values around the rear combination-lamp, but it is found that the effects of these devices are different around the c-pillar.
Inkompressible Strömungen
(2015)
Operational Modal Analysis (OMA) is a promising candidate for flutter testing and Structural Health Monitoring (SHM) of aircraft wings that are passively excited by wind loads. However, no studies have been published where OMA is tested in transonic flows, which is the dominant condition for large civil aircraft and is characterized by complex and unique aerodynamic phenomena. We use data from the HIRENASD large-scale wind tunnel experiment to automatically extract modal parameters from an ambiently excited wing operated in the transonic regime using two OMA methods: Stochastic Subspace Identification (SSI) and Frequency Domain Decomposition (FDD). The system response is evaluated based on accelerometer measurements. The excitation is investigated from surface pressure measurements. The forcing function is shown to be non-white, non-stationary and contaminated by narrow-banded transonic disturbances. All these properties violate fundamental OMA assumptions about the forcing function. Despite this, all physical modes in the investigated frequency range were successfully identified, and in addition transonic pressure waves were identified as physical modes as well. The SSI method showed superior identification capabilities for the investigated case. The investigation shows that complex transonic flows can interfere with OMA. This can make existing approaches for modal tracking unsuitable for their application to aircraft wings operated in the transonic flight regime. Approaches to separate the true physical modes from the transonic disturbances are discussed.
Wind-induced operational variability is one of the major challenges for structural health monitoring of slender engineering structures like aircraft wings or wind turbine blades. Damage sensitive features often show an even bigger sensitivity to operational variability. In this study a composite cantilever was subjected to multiple mass configurations, velocities and angles of attack in a controlled wind tunnel environment. A small-scale impact damage was introduced to the specimen and the structural response measurements were repeated. The proposed damage detection methodology is based on automated operational modal analysis. A novel baseline preparation procedure is described that reduces the amount of user interaction to the provision of a single consistency threshold. The procedure starts with an indeterminate number of operational modal analysis identifications from a large number of datasets and returns a complete baseline matrix of natural frequencies and damping ratios that is suitable for subsequent anomaly detection. Mahalanobis distance-based anomaly detection is then applied to successfully detect the damage under varying severities of operational variability and with various degrees of knowledge about the present operational conditions. The damage detection capabilities of the proposed methodology were found to be excellent under varying velocities and angles of attack. Damage detection was less successful under joint mass and wind variability but could be significantly improved through the provision of the currently encountered operational conditions.
This work presents a methodology for automated
damage-sensitive feature extraction and anomaly
detection under multivariate operational variability
for in-flight assessment of wings. The
method uses a passive excitation approach, i. e.
without the need for artificial actuation. The
modal system properties (natural frequencies and
damping ratios) are used as damage-sensitive
features. Special emphasis is placed on the use
of Fiber Bragg Grating (FBG) sensing technology
and the consideration of Operational and
Environmental Variability (OEV). Measurements
from a wind tunnel investigation with a composite
cantilever equipped with FBG and piezoelectric
sensors are used to successfully detect an impact
damage. In addition, the feasibility of damage
localisation and severity estimation is evaluated
based on the coupling found between damageand
OEV-induced feature changes.
Momentan finden in vielen Branchen umfassende Veränderungen von Märkten und Wertschöpfungsketten statt, welche auch als Digitale Transformation bezeichnet werden. In diesem Zusammenhang wird das Internet der Dinge (Internet of Things, IoT) als ein wichtiger technischer Enabler der Veränderungen angesehen. Primäre Ziele des IoT sind die Steuerung physischer Gegen-stände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Welche neuen Geschäfts-bzw. Partnermodelle entstehen durch die gemeinsame Nutzung von IoT-Daten und Big-Data-Technologien und welcher qualitative Mehrwert wird dadurch geschaffen? Als Antwort wird in diesem Beitrag ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von IoT vorgeschlagen. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der eine Abfallwirtschaft 2.0 basierend auf dem Einsatz von IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf Basis eines unentgeltlichen Informationsaustauschs durch IoT gestaltet werden können.
Kritische Infrastrukturen sind primäre Ziele krimineller Hacker. Der Deutsche Bundestag reagierte darauf am 25. Juli 2015 mit einem Gesetz zur Verbesserung der Sicherheit von ITSystemen, dem IT-Sicherheitsgesetz. Dies verlangt von Betreibern kritischer Infrastrukturen, angemessene Mindeststandards für organisatorische und technische Sicherheit zu implementieren, um den Betrieb und die Verfügbarkeit dieser Infrastruktur zu gewährleisten. Telekommunikationsunternehmen sind einerseits von diesem Gesetz in besonderem Maße betroffen und verfügen andererseits mit dem Rahmenwerk enhanced Telecom Operations Map (eTOM) über ein international anerkanntes Referenzmodell zur Gestaltung von Geschäftsprozessen in dieser Branche. Da sämtliche Telekommunikationsunternehmen in Deutschland verpflichtet sind, das Gesetz innerhalb eines bestimmten Zeitrahmens zu implementieren, präsentiert dieser Beitrag einen Vorschlag zur Erweiterung von eTOM um die relevanten Anforderungen des deutschen IT-Sicherheitsgesetzes.
Primäre Ziele des Internets der Dinge sind die Steuerung physischer Gegenstände aus der Distanz und das Erfassen von Informationen aus dem Umfeld dieser Gegenstände. Dazu werden Hardwarekomponenten in Gegenstände des täglichen Lebens und die Umwelt integriert. Mithilfe von Informations- und Kommunikationstechnologien entsteht hieraus das Internet der Dinge (Internet of Things, IoT). Vor einem Jahr wurde mit Narrowband Internet of Things (NB-IoT) eine Technologie die es ermöglicht, Hardwarekomponenten energieeffizient und unmittelbar über das Mobilfunknetz zu vernetzen. Gegenstände werden dadurch über große Reichweiten eigenständig kommunikationsfähig. Das IoT steht mit NB-IoT vor einem gestiegenen Nutzenpotenzial, da eine zunehmende Anzahl miteinander verbundener Gegenstände und der Austausch größerer Datenmengen realisierbar sind. Damit sind aus wirtschaftlicher Sicht neue, innovative Anwendungsfälle des IoT möglich, die auch bereits in der Praxis diskutiert werden. In diesem Beitrag wird anhand eines konkreten Anwendungsfalls untersucht, welche neuen Geschäfts- bzw. Partnermodelle durch die gemeinsame Nutzung von NB-IoT-Daten und Big Data-Technologien entstehen und welcher qualitative Mehrwert für die an einem Anwendungsfall beteiligten Stakeholder geschaffen wird. Dazu wird – einem konstruktionsorientierten Forschungsansatz folgend – ein Bewertungsrahmen zur qualitativen Wertschöpfungsanalyse von NB-IoT entwickelt, der u.a. auf der Schablone nach Cockburn und dem Business Model Canvas basiert. Anhand dieses Bewertungsrahmens wird ein Anwendungsfall untersucht, der in anonymisierter Form an konkrete Praxisprojekte angelehnt ist. Konkret wird ein Anwendungsfall betrachtet, der einen Fahrradverleih 2.0 basierend auf dem Einsatz von NB-IoT vorschlägt. Aus den Untersuchungsergebnissen gehen beispielsweise Erkenntnisse hervor, wie Geschäftsmodelle auf
Nowadays, the most employed devices for recoding videos or capturing images are undoubtedly the smartphones. Our work investigates the application of source camera identification on mobile phones. We present a dataset entirely collected by mobile phones. The dataset contains both still images and videos collected by 67 different smartphones. Part of the images consists in photos of uniform backgrounds, especially collected for the computation of the RSPN. Identifying the source camera given a video is particularly challenging due to the strong video compression. The experiments reported in this paper, show the large variation in performance when testing an highly accurate technique on still images and videos.
The quest for life on other planets is closely connected with the search for water in liquid state. Recent discoveries of deep oceans on icy moons like Europa and Enceladus have spurred an intensive discussion about how these waters can be accessed. The challenge of this endeavor lies in the unforeseeable requirements on instrumental characteristics both with respect to the scientific and technical methods. The TRIPLE/nanoAUV initiative is aiming at developing a mission concept for exploring exo-oceans and demonstrating the achievements in an earth-analogue context, exploring the ocean under the ice shield of Antarctica and lakes like Dome-C on the Antarctic continent.
Magnetic nanoparticles (MNPs) are used as therapeutic and diagnostic agents for local delivery of heat and image contrast enhancement in diseased tissue. Besides magnetization, the most important parameter that determines their performance for these applications is their magnetic relaxation, which can be affected when MNPs immobilize and agglomerate inside tissues. In this letter, we investigate different MNP agglomeration states for their magnetic relaxation properties under excitation in alternating fields and relate this to their heating efficiency and imaging properties. With focus on magnetic fluid hyperthermia, two different trends in MNP heating efficiency are measured: an increase by up to 23% for agglomerated MNP in suspension and a decrease by up to 28% for mixed states of agglomerated and immobilized MNP, which indicates that immobilization is the dominant effect. The same comparatively moderate effects are obtained for the signal amplitude in magnetic particle spectroscopy.
Nutzen und Rahmenbedingungen 5 informationsgetriebener Geschäftsmodelle des Internets der Dinge
(2018)
Im Kontext der zunehmenden Digitalisierung wird das Internet der Dinge (englisch: Internet of Things, IoT) als ein technologischer Treiber angesehen, durch den komplett neue Geschäftsmodelle im Zusammenspiel unterschiedlicher Akteure entstehen können. Identifizierte Schlüsselakteure sind unter anderem traditionelle Industrieunternehmen, Kommunen und Telekommunikationsunternehmen. Letztere sorgen mit der Bereitstellung von Konnektivität dafür, dass kleine Geräte mit winzigen Batterien nahezu überall und direkt an das Internet angebunden werden können. Es sind schon viele IoT-Anwendungsfälle auf dem Markt, die eine Vereinfachung für Endkunden darstellen, wie beispielsweise Philips Hue Tap. Neben Geschäftsmodellen basierend auf Konnektivität besteht ein großes Potenzial für informationsgetriebene Geschäftsmodelle, die bestehende Geschäftsmodelle unterstützen sowie weiterentwickeln können. Ein Beispiel dafür ist der IoT-Anwendungsfall Park and Joy der Deutschen Telekom AG, bei dem Parkplätze mithilfe von Sensoren vernetzt und Autofahrer in Echtzeit über verfügbare Parkplätze informiert werden. Informationsgetriebene Geschäftsmodelle können auf Daten aufsetzen, die in IoT-Anwendungsfällen erzeugt werden. Zum Beispiel kann ein Telekommunikationsunternehmen Mehrwert schöpfen, indem es aus Daten entscheidungsrelevantere Informationen – sogenannte Insights – ableitet, die zur Steigerung der Entscheidungsagilität genutzt werden. Außerdem können Insights monetarisiert werden. Die Monetarisierung von Insights kann nur nachhaltig stattfinden, wenn sorgfältig gehandelt wird und Rahmenbedingungen berücksichtigt werden. In diesem Kapitel wird das Konzept informationsgetriebener Geschäftsmodelle erläutert und anhand des konkreten Anwendungsfalls Park and Joy verdeutlicht. Darüber hinaus werden Nutzen, Risiken und Rahmenbedingungen diskutiert.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
The continuing growth of scientific publications raises the question how research processes can be digitalized and thus realized more productively. Especially in information technology fields, research practice is characterized by a rapidly growing volume of publications. For the search process various information systems exist. However, the analysis of the published content is still a highly manual task. Therefore, we propose a text analytics system that allows a fully digitalized analysis of literature sources. We have realized a prototype by using EBSCO Discovery Service in combination with IBM Watson Explorer and demonstrated the results in real-life research projects. Potential addressees are research institutions, consulting firms, and decision-makers in politics and business practice.
Information technologies, such as big data analytics, cloud computing,
cyber physical systems, robotic process automation, and the internet of things, provide a sustainable impetus for the structural development of business sectors as well as the digitalization of markets, enterprises, and processes. Within the consulting industry, the proliferation of these technologies opened up the new segment of digital transformation, which focuses on setting up, controlling, and implementing projects for enterprises from a broad range of sectors. These recent developments raise the question, which requirements evolve for IT consultants as important success factors of those digital transformation projects. Therefore, this empirical contribution provides indications regarding the qualifications and competences necessary for IT consultants in the era of digital transformation from a labor market perspective. On the one hand, this knowledge base is interesting for the academic education of consultants, since it supports a market-oriented design of adequate training measures. On the other hand, insights into the competence requirements for consultants are considered relevant for skill and talent management processes in consulting practice. Assuming that consulting companies pursue a strategic human resource management approach, labor market information may also be useful to discover strategic behavioral patterns.
Im Rahmen der Digitalisierung ist die zunehmende Automatisierung von bisher manuellen Prozessschritten ein Aspekt, der massive Auswirkungen auf die zukünftige Arbeitswelt haben wird. In diesem Kontext werden an den Einsatz von Softwarerobotern zur Prozessautomatisierung hohe Erwartungen geknüpft. Bei den Implementierungsansätzen wird die Diskussion aktuell insbesondere durch Robotic Process Automation (RPA) und Chatbots geprägt. Beide Ansätze verfolgen das gemeinsame Ziel einer 1:1-Automatisierung von menschlichen Handlungen und dadurch ein direktes Ersetzen von Mitarbeitern durch Maschinen. Bei RPA werden Prozesse durch Softwareroboter erlernt und automatisiert ausgeführt. Dabei emulieren RPA-Roboter die Eingaben auf der bestehenden Präsentationsschicht, so dass keine Änderungen an vorhandenen Anwendungssystemen notwendig sind. Am Markt werden bereits unterschiedliche RPA-Lösungen als Softwareprodukte angeboten. Durch Chatbots werden Ein- und Ausgaben von Anwendungssystemen über natürliche Sprache realisiert. Dadurch ist die Automatisierung von unternehmensexterner Kommunikation (z. B. mit Kunden) aber auch von unternehmensinternen Assistenztätigkeiten möglich. Der Beitrag diskutiert die Auswirkungen von Softwarerobotern auf die Arbeitswelt anhand von Anwendungsbeispielen und erläutert die unternehmensindividuelle Entscheidung über den Einsatz von Softwarerobotern anhand von Effektivitäts- und Effizienzzielen.
In der Diskussion über die Digitalisierung der Forschung spielt die Frage nach der optimalen IT-Unterstützung für Forschende eine wichtige Rolle. Forschende können heute an ihren Hochschulen bzw. Wissenschaftseinrichtungen auf ein breites Angebot interner IT-Dienstleistungen zurückgreifen, das auch kooperative IT-Dienste umfasst, die von mehreren Institutionen in Zusammenarbeit bereitgestellt werden. Außerhalb der eigenen Organisation und des weiteren Verbunds hat sich im Internet zudem ein breites externes Angebot an innovativen, häufig kostenlos nutzbaren Onlinediensten entwickelt. Neben horizontalen Onlinediensten, die sich prinzipiell an jeden Internetnutzer richten (bspw. Dropbox, Twitter, WhatsApp), nimmt auch die Zahl von vertikalen Diensten für wissenschaftliche bzw. Forschungszwecke immer weiter zu (bspw. GoogleScholar, ResearchGate, figshare). Für Forschende eröffnen sich damit vielfältige neue Möglichkeiten, ihren individuellen Forschungsprozess durch digitale Werkzeuge zu verbessern. Aufgrund rechtlicher, technischer und personeller Restriktionen können jedoch interne Dienstleister bei der Identifizierung, Auswahl und Nutzung externer Onlinedienste nur wenig Unterstützung leisten. Aus einer serviceorientierten Perspektive stehen Forschende zunehmend vor dem Problem, wie sich heterogene IT-Dienste interner und externer Anbieter in den eigenen Forschungsprozess integrieren lassen. Als Lösungsansatz skizziert das Kapitel das Konzept eines persönlichen Forschungsinformationssystems
nach Gesichtspunkten eines digitalen Servicesystems.
The initial idea of Robotic Process Automation (RPA) is the automation of business processes through the presentation layer of existing application systems. For this simple emulation of user input and output by software robots, no changes of the systems and architecture is required. However, considering strategic aspects of aligning business and technology on an enterprise level as well as the growing capabilities of RPA driven by artificial intelligence, interrelations between RPA and Enterprise Architecture (EA) become visible and pose new questions. In this paper we discuss the relationship between RPA and EA in terms of perspectives and implications. As workin- progress we focus on identifying new questions and research opportunities related to RPA and EA.
As researchers continue to seek the expansion of the material base for additive manufacturing, there is a need to focus attention on the Ni–Cu group of alloys which conventionally has wide industrial applications. In this work, the G-NiCu30Nb casting alloy, a variant of the Monel family of alloys with Nb and high Si content is, for the first time, processed via the laser powder bed fusion process (LPBF). Being novel to the LPBF processes, optimum LPBF parameters were determined, and hardness and tensile tests were performed in as-built conditions and after heat treatment at 1000 °C. Microstructures of the as-cast and the as-built condition were compared. Highly dense samples (99.8% density) were achieved after varying hatch distance (80 µm and 140 µm) with scanning speed (550 mm/s–1500 mm/s). There was no significant difference in microhardness between varied hatch distance print sets. Microhardness of the as-built condition (247 HV0.2) exceeded the as-cast microhardness (179 HV0.2.). Tensile specimens built in vertical (V) and horizontal (H) orientations revealed degrees of anisotropy and were superior to conventionally reported figures. Post heat treatment increased ductility from 20% to 31% (V), as well as from 16% to 25% (H), while ultimate tensile strength (UTS) and yield strength (YS) were considerably reduced.
In this chapter, the key technologies and the instrumentation required for the subsurface exploration of ocean worlds are discussed. The focus is laid on Jupiter’s moon Europa and Saturn’s moon Enceladus because they have the highest potential for such missions in the near future. The exploration of their oceans requires landing on the surface, penetrating the thick ice shell with an ice-penetrating probe, and probably diving with an underwater vehicle through dozens of kilometers of water to the ocean floor, to have the chance to find life, if it exists. Technologically, such missions are extremely challenging. The required key technologies include power generation, communications, pressure resistance, radiation hardness, corrosion protection, navigation, miniaturization, autonomy, and sterilization and cleaning. Simpler mission concepts involve impactors and penetrators or – in the case of Enceladus – plume-fly-through missions.