Filtern
Erscheinungsjahr
Institut
- Fachbereich Elektrotechnik und Informationstechnik (465) (entfernen)
Sprache
- Deutsch (465) (entfernen)
Dokumenttyp
- Wissenschaftlicher Artikel (222)
- Buch (Monographie) (91)
- Konferenzveröffentlichung (68)
- Teil eines Buches (Kapitel) (27)
- Patent (15)
- Bericht (9)
- Sonstiges (8)
- Beitrag zu einer (nichtwissenschaftlichen) Zeitung oder Zeitschrift (6)
- Lehrmaterial (6)
- Dissertation (5)
- Arbeitspapier (4)
- Bachelorarbeit (1)
- Video (1)
- Rezension (1)
- Vortrag (1)
Schlagworte
- Multimediamarkt (7)
- Auslenkung (3)
- Digitale Transformation (3)
- Digitalisierung (3)
- Javasimulation (3)
- Literaturanalyse (3)
- Referenzmodellierung (3)
- Amplitude (2)
- Content Management (2)
- Education (2)
- Feder (2)
- Forschungsprozess (2)
- Gamification (2)
- Mathematik (2)
- Prozessautomatisierung (2)
- Serious Game (2)
- Simulation (2)
- Text Analytics (2)
- Virtuelle Realität (2)
- Anomalieerkennung (1)
- Antennen (1)
- Anwendungsorientierter Forschungsansatz (1)
- Arbeit 4.0 (1)
- Autonomous mobile robots (1)
- BIM (1)
- Besetzungsinversion (1)
- Bewertungsframework (1)
- Bändermodell (1)
- CCD-Bildwandler (1)
- CMS (1)
- Calcium oxides (1)
- Chaostheorie (1)
- Chatbots (1)
- Competence Developing Gam (1)
- Customer Experience Management (1)
- Customer Journeys (1)
- Cyber-physical systems (1)
- Cybersecurity (1)
- Cybersicherheit (1)
- Design Science Research (1)
- DiggiTwin (1)
- Digital Game Based Learning (1)
- Digitale Lehre (1)
- Dreidimensionale Bildverarbeitung (1)
- E-Learning (1)
- EBSCO Discovery Service (1)
- Electron-phonon coupling (1)
- Elektrische Leitung (1)
- Elektronengas (1)
- Elektrotechnik (1)
- Enhanced Telecom Operations Map (1)
- Feldsimulation (1)
- Festkörper (1)
- Forschung (1)
- Forschungsinformationssystem (1)
- Geschäftsmodelle (1)
- Geschäftsprozessmanagement (1)
- Gleichspannungswandler (1)
- HDTV (1)
- He-Ne Laser (1)
- He-Ne Schema (1)
- Helium-Neon-Laser (1)
- High Definition Media Services (1)
- High Quality Streaming (1)
- Hochfrequenztechnik (1)
- IBM Watson Explorer (1)
- IT-Marketing (1)
- IT-Sicherheit (1)
- Impulstechnik (1)
- IndraMotion (1)
- Industry 4.0 (1)
- Informationsgetriebene Geschäftsmodelle (1)
- Informationssicherheit (1)
- Informationssicherheitsmanagement (1)
- Intelligentes Parken (1)
- Internet der Dinge (1)
- IoT (1)
- Klassifikator <Informatik> (1)
- Kommerzielle Interaktionen (1)
- Lichtabsorption (1)
- Lichtbetrachtung (1)
- Lichtemission (1)
- Lichtquelle (1)
- Literatur-analyse-prozess (1)
- Literaturdaten (1)
- Literaturrecherche (1)
- MPEG 4 (1)
- MPEG 7 (1)
- MPEG-Standard (1)
- Management (1)
- McLuhan, Marshall (1)
- Monetarisierung (1)
- Motion-Logic System (1)
- Multi-robot systems (1)
- Multimedia-Dienst (1)
- Objekterkennung (1)
- Open Educational Resources (OER) (1)
- Pendel (1)
- Phonons (1)
- Plasmatechnik (1)
- Praxisprojekte (1)
- Projektbeispiele (1)
- Prozessabläufe (1)
- Prozessagilität (1)
- Prozessmodellierung (1)
- Prozessstandardisierung (1)
- Pulselektroniklabor (1)
- Qualitative Wertschöpfungsanalyse (1)
- Referenzmodelle (1)
- Relaxation (1)
- Resonator (1)
- Robotic Process Automation (1)
- SPS (1)
- Serviceintegration (1)
- Signalquelle (1)
- Smart Building (1)
- Smart factory (1)
- Softwareroboter (1)
- Speicherprogrammierte Steuerung (1)
- Supraleitung (1)
- TM Forum (1)
- Text Analytics (1)
- Text Mining (1)
- Unternehmensarchitektur (1)
- Unternehmensarchitekturen (1)
- Unternehmensarchitekturen Internet der Dinge (1)
- Unternehmensstrukturen (1)
- Unternehmenstransformation (1)
- Vorverarbeitung (1)
- Wertschöpfungskettenanalyse (1)
- WiLMo (1)
- Wirtschaftsinformatik (1)
- Wissenstransfer (1)
- Wärmeübertragung (1)
- eTOM (1)
- enhanced Telecom Operations Map (eTOM) (1)
- Überwachung & Optimierung (1)
Einfluß der Kontoführungsmodelle auf den Effektivzins und die Restschuld bei Annuitätendarlehen
(1989)
Fußball oder Mathematik
(1971)
Kurzschlußstromberechnung
(1980)
Statische oder dynamische Wirtschaftlichkeitsberechnung bei Investitionen zur Energieeinsparung
(1982)
Analog anzeigende Digitaluhr
(1983)
Multiplikativ oder additiv? Diskussionsbeitrag zu Preisanpassungsklauseln in der Gaswirtschaft
(1985)
Steuerreformgesetz 1990
(1989)
Steuerreformgesetz 1990
(1989)
Effektivzins und APR
(1991)
Im Hinblick auf die Klimaziele der Bundesrepublik Deutschland konzentriert sich das Projekt Diggi Twin auf die nachhaltige Gebäudeoptimierung. Grundlage für eine ganzheitliche Gebäudeüberwachung und -optimierung bildet dabei die Digitalisierung und Automation im Sinne eines Smart Buildings. Das interdisziplinäre Projekt der FH Aachen hat das Ziel, ein bestehendes Hochschulgebäude und einen Neubau an klimaneutrale Standards anzupassen. Im Rahmen des Projekts werden bekannte Verfahren, wie das Building Information Modeling (BIM), so erweitert, dass ein digitaler Gebäudezwilling entsteht. Dieser kann zur Optimierung des Gebäudebetriebs herangezogen werden, sowie als Basis für eine Erweiterung des Bewertungssystems Nachhaltiges Bauen (BNB) dienen. Mithilfe von Sensortechnologie und künstlicher Intelligenz kann so ein präzises Monitoring wichtiger Gebäudedaten erfolgen, um ungenutzte Energieeinsparpotenziale zu erkennen und zu nutzen. Das Projekt erforscht und setzt methodische Erkenntnisse zu BIM und digitalen Gebäudezwillingen praxisnah um, indem es spezifische Fragen zur Energie- und Ressourceneffizienz von Gebäuden untersucht und konkrete Lösungen für die Gebäudeoptimierung entwickelt.
Nahezu 100.000 denkbare Strukturen kann ein Getriebe bei gleicher Funktion aufweisen - je nach Ganganzahl und gefordertem Freiheitsgrad. Mit dem traditionellen Ansatz bei der Entwicklung, einzelne vielversprechende Systemkonfigurationen manuell zu identifizieren und zu vergleichen, können leicht innovative und vor allem kostenminimale Lösungen übersehen werden. Im Rahmen eines Forschungsprojekts hat die TU Darmstadt spezielle Optimierungsmethoden angewendet, um auch bei großen Lösungsräumen zielsicher ein für die individuellen Zielstellungen optimales Layout zu finden.
In der Diskussion über die Digitalisierung der Forschung spielt die Frage nach der optimalen IT-Unterstützung für Forschende eine wichtige Rolle. Forschende können heute an ihren Hochschulen bzw. Wissenschaftseinrichtungen auf ein breites Angebot interner IT-Dienstleistungen zurückgreifen, das auch kooperative IT-Dienste umfasst, die von mehreren Institutionen in Zusammenarbeit bereitgestellt werden. Außerhalb der eigenen Organisation und des weiteren Verbunds hat sich im Internet zudem ein breites externes Angebot an innovativen, häufig kostenlos nutzbaren Onlinediensten entwickelt. Neben horizontalen Onlinediensten, die sich prinzipiell an jeden Internetnutzer richten (bspw. Dropbox, Twitter, WhatsApp), nimmt auch die Zahl von vertikalen Diensten für wissenschaftliche bzw. Forschungszwecke immer weiter zu (bspw. GoogleScholar, ResearchGate, figshare). Für Forschende eröffnen sich damit vielfältige neue Möglichkeiten, ihren individuellen Forschungsprozess durch digitale Werkzeuge zu verbessern. Aufgrund rechtlicher, technischer und personeller Restriktionen können jedoch interne Dienstleister bei der Identifizierung, Auswahl und Nutzung externer Onlinedienste nur wenig Unterstützung leisten. Aus einer serviceorientierten Perspektive stehen Forschende zunehmend vor dem Problem, wie sich heterogene IT-Dienste interner und externer Anbieter in den eigenen Forschungsprozess integrieren lassen. Als Lösungsansatz skizziert das Kapitel das Konzept eines persönlichen Forschungsinformationssystems
nach Gesichtspunkten eines digitalen Servicesystems.
Das Diskussionspapier beschreibt einen Prozess an der FH Aachen zur Entwicklung und Implementierung eines Self-Assessment-Tools für Studiengänge. Dieser Prozess zielte darauf ab, die Relevanz der Themen Digitalisierung, Internationalisierung und Nachhaltigkeit in Studiengängen zu stärken. Durch Workshops und kollaborative Entwicklung mit Studiendekan:innen entstand ein Fragebogen, der zur Reflexion und strategischen Weiterentwicklung der Studiengänge dient.
Malware auf Smartphones ist ein Problem, dem auch Strafverfolgungsbehörden immer häufiger gegenüberstehen.
Insbesondere Telefone, bei denen potentiell schadhafte Apps zu einem finanziellen Schaden
geführt haben, finden sich auf den Schreibtischen der Polizei wieder. Dabei müssen die Ermittler möglichst
schnell und gezielt erkennen können, ob eine App tatsächlich schadhaft manipuliert wurde, was
manipuliert wurde und mit wem die App kommuniziert. Klassische Malware-Erkennungsverfahren helfen
zwar bei der generellen Erkennung schadhafter Software, sind aber für die polizeiliche Praxis nicht
geeignet. Dieses Paper stellt ein Programm vor, welches gerade die forensischen Fragestellungen berücksichtigt
und so für den Einsatz in der Strafverfolgung in Frage kommt.
Obwohl es eine Vielzahl von Einführungskonzepten für ITSM gibt, hat sich bisher keines dieser Konzepte auf breiter Linie durchgesetzt. Das gilt in erhöhtem Maße für ITSM-Einführungskonzepte für KMU, wohl nicht zuletzt aufgrund der Tatsache, dass der Mehrwert von ITSM für KMU aufgrund der geringeren Größe der IT-Organisationen nur entsprechend schwieriger generiert werden kann.
Mit diesem Beitrag wird ein Einführungskonzept für ITSM in KMU systematisch hergeleitet. Dafür wurden zunächst die Treiber und Barrieren von ITSM untersucht, um daraus ein umfassendes Wirkmodell zu entwickeln. Da mit diesem Wirkungsmodell die Einflussfaktoren auf den Erfolg von ITSM in KMU deutlich werden, konnte auf dieser Basis ein Einführungskonzept abgeleitet werden, welches insbesondere die positiven Effekte unterstützt bzw.
verstärkt.
Statistisches Multiplexen von Sprache und Daten in TDMA-Mobilfunksystemen der dritten Generation
(1995)
Grundlagen des Mobilfunks
(2007)
Das anhaltende Wachstum wissenschaftlicher Veröffentlichungen wirft die Fragestellung auf, wie Literaturana-lysen im Rahmen von Forschungsprozessen digitalisiert und somit produktiver realisiert werden können. Insbesondere in informationstechnischen Fachgebieten ist die Forschungspraxis durch ein rasant wachsendes Publikationsaufkommen gekennzeichnet. Infolgedessen bietet sich der Einsatz von Methoden der Textanalyse (Text Analytics) an, die Textdaten automatisch vorbereiten und verarbeiten können. Erkenntnisse entstehen dabei aus Analysen von Wortarten und Subgruppen, Korrelations- sowie Zeitreihenanalysen. Dieser Beitrag stellt die Konzeption und Realisierung eines Prototypen vor, mit dem Anwender bibliographische Daten aus der etablierten Literaturdatenbank EBSCO Discovery Service mithilfe textanalytischer Methoden erschließen können. Der Prototyp basiert auf dem Analysesystem IBM Watson Explorer, das Hochschulen lizenzkostenfrei zur Verfügung steht. Potenzielle Adressaten des Prototypen sind Forschungseinrichtungen, Beratungsunternehmen sowie Entscheidungsträger in Politik und Unternehmenspraxis.
Angesichts des anhaltenden Wachstums wissenschaftlicher Veröffentlichungen werden Instrumente benötigt, um Literaturanalysen durch Digitalisierung produktiver zu gestalten. Dieser Beitrag stellt einen Ansatz vor, der bibliographische Daten aus der Literaturdatenbank EBSCO Discovery Service mithilfe von Text-Analytics-Methoden erschließt. Die Lösung basiert auf dem Textanalysesystem IBM Watson Explorer und eignet sich für explorative Literaturanalysen, um beispielsweise den Status quo emergierender Technologiefelder in der Literatur zu reflektieren. Die generierten Ergebnisse sind in den Kontext der zunehmenden Werkzeugunterstützung des Literaturrechercheprozesses einzuordnen und können für intra- sowie interinstitutionelle Wissenstransferprozesse in Forschungs- und Beratungskontexten genutzt werden.
Die Durchführung einer systematischen Literaturrecherche ist eine zentrale Kompetenz wissenschaftlichen Arbeitens und bildet daher einen festen Ausbildungsbestandteil von Bachelor- und Masterstudiengängen. In entsprechenden Lehrveranstaltungen werden Studierende zwar mit den grundlegenden Hilfsmitteln zur Suche und Verwaltung von Literatur vertraut gemacht, allerdings werden die Potenziale textanalytischer Methoden und Anwendungssysteme (Text Mining, Text Analytics) dabei zumeist nicht abgedeckt. Folglich werden Datenkompetenzen, die zur systemgestützten Analyse und Erschließung von Literaturdaten erforderlich sind, nicht hinreichend ausgeprägt. Um diese Kompetenzlücke zu adressieren, ist an der Hochschule Osnabrück eine Lehrveranstaltung konzipiert und projektorientiert umgesetzt worden, die sich insbesondere an Studierende wirtschaftswissenschaftlicher Studiengänge richtet. Dieser Beitrag dokumentiert die fachliche sowie technische Ausgestaltung dieser Veranstaltung und zeigt Potenziale für die künftige Weiterentwicklung auf.
Dieser Beitrag stellt einen Bewertungsrahmen für Smart Services vor, der auf dem Konzept vollständiger Finanzpläne (VOFI) basiert. Zunächst wird eine IoT-Architektur für Smart Services eingeführt, die die Grundlage für deren Betrachtung aus Sicht der Unternehmensplanung liefert. Hierauf aufbauend wird ein Bewertungsrahmen für die finanzplanorientierte Wirtschaftlichkeitsbewertung von Smart Services geschaffen, mit dem die relevanten Zahlungsfolgen differenziert erfasst werden. Mithilfe des entwickelten VOFI-Systems wird anschließend aufgezeigt, wie mithilfe einer Risikoanalyse die Unsicherheit von Modellparametern berücksichtigt werden kann.
Smart-Living-Services nur gegen Daten? Process-Mining als Möglichkeit zur Steigerung der Akzeptanz!
(2019)
Seit Jahren etablieren sich Technologien in unserem Alltag, die mit Hilfe von smarten Komponenten neue Services und Vernetzungsmöglichkeiten schaffen. Dieses Paper beschreibt die Ergebnisse einer Studie, die die Akzeptanz von IoT-gestützten, smarten Services im privaten Umfeld untersucht. Dabei wird eine zentrale Datenverarbeitung mit automatisierter Erstellung smarter Services der dezentralen Datenverarbeitung mit manueller Serviceerstellung in sieben Kategorien gegenübergestellt. Die Auswertung der Studie legt die Forschungsfrage nahe, ob das Nutzerverhalten im Kontext Smart Living nicht auch mit einem
dezentralen Lösungsansatz, und somit unabhängig von großen Unternehmen, analysiert werden kann. Hierfür wird im zweiten Teil des Papers die Anwendbarkeit von Process-Mining im Bereich Smart Living untersucht und prototypisch getestet.
Welche Vorteile bietet die Forschungsdatenmanagement-Plattform Coscine für die Verwaltung von Daten in Forschungsprojekten? Hierzu gibt die Handreichung einen schnellen Überblick über den landesgeförderten Dienst Coscine für Forschende und FDM-Service-Personal an HAW in NRW (DH.NRW-Hochschulen).
FDM-Service-Mitarbeitende können die Handreichung in ihrer Beratung zu Coscine einsetzen und mit der Eingabemaske in der Kopfzeile des Dokuments auf ihre Hochschule anpassen.
Um die Forschungsdatenmanagement-Plattform Coscine optimal für Forschungsprojekte nutzen zu können, ist es sinnvoll, einige Fragen im Vorhinein zu klären. So können aufwendige Änderungen der Datenverwaltung im Nachhinein vermieden werden. Hierzu bietet die Handreichung hilfreiche Leitfragen und Erläuterungen für Forschende und FDM-Service-Personal an HAW in NRW (DH.NRW-Hochschulen).
FDM-Service-Mitarbeitende können die Handreichung in ihrer Beratung zu Coscine einsetzen und mit der Eingabemaske in der Kopfzeile des Dokuments auf ihre Hochschule anpassen.
Unser Zuhause wird zunehmend intelligenter. Smart Homes bieten uns die Steuerung von Haus- oder Unterhaltungstechnik bequem vom Smartphone aus. Junge Familien nutzen die Technologie, um mittels vernetzten Babymonitorsystemen ihren Nachwuchs von überall aus im Blick zu haben. Davon auszugehen, dass solche Systeme mit einem Fokus auf Sicherheit entwickelt wurden, um die sehr persönlichen Daten zu schützen, ist jedoch ein Trugschluss. Die Untersuchung eines handelsüblichen und keineswegs billigen Systems zeigt, dass die Geräte sehr einfach kompromittiert und missbraucht werden können.
Wir stellen einen USB-Baustein vor, der eine kostengünstige und universelle Möglichkeit schafft , im Unterricht den Themenkreis Messen-Steuern-Regeln zu behandeln. Die Funktionalität orientiert sich am CVK-Interface der Firma Fischertechnik. Im Gegensatz zu kommerziellen Lösungen erlaubt unser Aufbau auch den preiswerten Einsatz in Gruppen- oder Einzelarbeit. Abschließend berichten wir über ein Beispiel aus dem Unterrichtseinsatz.
Das von Texas-Instruments (TI) vertriebene Interface CBL2 wird über einige TI-Grafik-Rechner (TI-92, TI-89 usw.) angesteuert. Wegen seiner Handlichkeit wird dieses System beim Unterricht in wechselnden Räumen »großen« Messwerterfassungssystemen oft vorgezogen. Das CBL2 bietet drei analoge Eingänge, die immerhin mit 10 Bit Auflösung und bis zu einer Frequenz von 50 kHz arbeiten. Weiterhin besitzt das CBL2 eine Buchse für angeblich nur einen digitalen Ein- bzw. Ausgang. An diesem Eingang wird standardmäßig hauptsächlich der Bewegungssensor CBR betrieben. In diesem Beitrag werden Erweiterungsmöglichkeiten dieses Anschlusses beschrieben.
Die Erfindung betrifft eine Vorrichtung zur Bestimmung einer Relativlage zwischen einem feststehenden Teil und einem zu demselben in eine Bewegungsrichtung bewegbaren beweglichen Teil, wobei der feststehende Teil mit einem Wiegandsensor versehen ist, wobei der Wiegandsensor zwischen zwei gegenpolig zueinander ausgebildeten Permanentmagneten angeordnet ist und dass der bewegliche Teil eine Mehrzahl von beabstandet zueinander angeordneten Magnetisierungsstegen aus einem magnetisch leitenden Material aufweist, die in der Bewegungsrichtung zumindest eine gleich große Erstreckung aufweisen wie der Permanentmagnet, dass ein Abstand zwischen benachbarten Magnetisierungsstegen derart gewählt ist, dass in einer ersten Relativlage ein erster Permanentmagnet von einem der Magnetisierungsstege überdeckt ist und ein zweiter Permanentmagnet nicht von einem der Magnetisierungsstege überdeckt ist.