Refine
Year of publication
- 2024 (14)
- 2023 (29)
- 2022 (19)
- 2021 (27)
- 2020 (29)
- 2019 (44)
- 2018 (44)
- 2017 (37)
- 2016 (35)
- 2015 (36)
- 2014 (43)
- 2013 (43)
- 2012 (41)
- 2011 (40)
- 2010 (36)
- 2009 (38)
- 2008 (41)
- 2007 (39)
- 2006 (27)
- 2005 (25)
- 2004 (35)
- 2003 (33)
- 2002 (29)
- 2001 (33)
- 2000 (34)
- 1999 (31)
- 1998 (28)
- 1997 (34)
- 1996 (25)
- 1995 (22)
- 1994 (21)
- 1993 (18)
- 1992 (13)
- 1991 (14)
- 1990 (9)
- 1989 (17)
- 1988 (11)
- 1987 (8)
- 1986 (9)
- 1985 (9)
- 1984 (3)
- 1983 (7)
- 1982 (4)
- 1981 (3)
- 1980 (12)
- 1979 (6)
- 1978 (7)
- 1977 (1)
- 1976 (7)
- 1975 (3)
- 1974 (4)
- 1973 (1)
- 1972 (3)
- 1971 (2)
- 1970 (1)
Institute
- Fachbereich Elektrotechnik und Informationstechnik (1184) (remove)
Language
- English (719)
- German (464)
- Multiple languages (1)
Document Type
- Article (637)
- Conference Proceeding (302)
- Book (114)
- Part of a Book (64)
- Patent (17)
- Report (9)
- Other (8)
- Conference: Meeting Abstract (6)
- Contribution to a Periodical (6)
- Course Material (6)
Keywords
- Multimediamarkt (7)
- Enterprise Architecture (5)
- MINLP (5)
- Engineering optimization (4)
- Gamification (4)
- Serious Game (4)
- Auslenkung (3)
- Digitale Transformation (3)
- Digitalisierung (3)
- Education (3)
Innovation und Kommunikation
(2013)
Meine besten Rezepte
(2008)
Objective
The purpose of this study is to (i) design a small and mobile Magnetic field ALert SEnsor (MALSE), (ii) to carefully evaluate its sensors to their consistency of activation/deactivation and sensitivity to magnetic fields, and (iii) to demonstrate the applicability of MALSE in 1.5 T, 3.0 T and 7.0 T MR fringe field environments.
Methods
MALSE comprises a set of reed sensors, which activate in response to their exposure to a magnetic field. The activation/deactivation of reed sensors was examined by moving them in/out of the fringe field generated by 7TMR.
Results
The consistency with which individual reed sensors would activate at the same field strength was found to be 100% for the setup used. All of the reed switches investigated required a substantial drop in ambient magnetic field strength before they deactivated.
Conclusions
MALSE is a simple concept for alerting MRI staff to a ferromagnetic object being brought into fringe magnetic fields which exceeds MALSEs activation magnetic field. MALSE can easily be attached to ferromagnetic objects within the vicinity of a scanner, thus creating a barrier for hazardous situations induced by ferromagnetic parts which should not enter the vicinity of an MR-system to occur.
Die Nutzung von Prozessmodellierungsmethoden oder - werkzeugen kann erheblichen Einfluss auf die Effektivität von Prozessen haben. Das gilt insbesondere für Situationen, in denen Personen unter Stress stehen oder ungeübt sind. In diesen Fällen geben Prozessmodelle konkrete Empfehlungen, nach denen sich die handelnden Personen richten könnten. In Experimenten mit der Business-Simulation Apollo 13 haben wir den Effekt eines Einsatzes von Prozessmodellierungsmethoden und -werkzeugen untersucht. Bereits bekannte Theorien (z.B. über geeignete Verhältnisse von Kommunikationsinhalten) konnten bestätigt werden. Darüber hinaus haben wir eine besondere Bedeutung der Übertragbarkeit von Prozessmodellen in konkrete Handlungen identifiziert.
Purpose
To demonstrate that high quality T₂-weighted (T2w) turbo spin-echo (TSE) imaging of the complete prostate can be achieved routinely and within safety limits at 7 T, using an external transceive body array coil only.
Methods
Nine healthy volunteers and 12 prostate cancer patients were scanned on a 7 T whole-body system. Preparation consisted of B₀ and radiofrequency shimming and localized flip angle calibration. T₁ and T₂ relaxation times were measured and used to define the T2w-TSE protocol. T2w imaging was performed using a TSE sequence (pulse repetition time/echo time 3000–3640/71 ms) with prolonged excitation and refocusing pulses to reduce specific absorption rate.
Results
High quality T2w TSE imaging was performed in less than 2 min in all subjects. Tumors of patients with gold-standard tumor localization (MR-guided biopsy or prostatectomy) were well visualized on 7 T imaging (n = 3). The number of consecutive slices achievable within a 10-g averaged specific absorption rate limit of 10 W/kg was ≥28 in all subjects, sufficient for full prostate coverage with 3-mm slices in at least one direction.
Conclusion
High quality T2w TSE prostate imaging can be performed routinely and within specific absorption rate limits at 7 T with an external transceive body array.
Arbeitswissenschaft
(2001)
Unter Arbeit wird das Tätigsein des Menschen verstanden, bei dem dieser mit anderen Menschen und (technischen) Hilfsmitteln in Interaktion tritt, um unter wirtschaftlichen Zielsetzungen Güter und Dienstleistungen zu erstellen (Luczak, 1998a). Arbeit dient direkt oder indirekt der Erhaltung der eigenen Existenz und der Existenz der Gesellschaft. Arbeit ist deshalb eine besondere Form des Tätigseins neben anderen wie Spiel, Sport, Lemen usw.
Open Data impliziert die freie Zugänglichkeit, Verfügbarkeit und Wiederverwendbarkeit von Datensätzen. Obwohl hochwertige Datensätze öffentlich verfügbar sind, ist der Zugang zu diesen und die Transparenz über die Formate nicht immer gegeben. Dies mindert die optimale Nutzung des Potenzials zur Wertschöpfung, trotz der vorherrschenden Einigkeit über ihre Chancen. Denn Open Data ermöglicht das Vorantreiben von Compliance-Themen wie Transparenz und Rechenschaftspflicht bis hin zur Förderung von Innovationen. Die Nutzung von Open Data erfordert Mut und eine gemeinsame Anstrengung verschiedener Akteure und Branchen. Im Rahmen des vorliegenden Beitrags werden auf Grundlage des Design Science-Ansatzes eine Open Data Capability Map sowie darauf aufbauend eine Datenarchitektur für Open Data in der Luftfahrtindustrie an einem Beispiel entwickelt.
Water suppliers are faced with the great challenge of achieving high-quality and, at the same time, low-cost water supply. In practice, the focus is set on the most beneficial maintenance measures and/or capacity adaptations of existing water distribution systems (WDS). Since climatic and demographic influences will pose further challenges in the future, the resilience enhancement of WDS, i.e. the enhancement of their capability to withstand and recover from disturbances, has been in particular focus recently. To assess the resilience of WDS, metrics based on graph theory have been proposed. In this study, a promising approach is applied to assess the resilience of the WDS for a district in a major German City. The conducted analysis provides insight into the process of actively influencing the
resilience of WDS
Water suppliers are faced with the great challenge of achieving high-quality and, at the same time, low-cost water supply. Since climatic and demographic influences will pose further challenges in the future, the resilience enhancement of water distribution systems (WDS), i.e. the enhancement of their capability to withstand and recover from disturbances, has been in particular focus recently. To assess the resilience of WDS, graph-theoretical metrics have been proposed. In this study, a promising approach is first physically derived analytically and then applied to assess the resilience of the WDS for a district in a major German City. The topology based resilience index computed for every consumer node takes into consideration the resistance of the best supply path as well as alternative supply paths. This resistance of a supply path is derived to be the dimensionless pressure loss in the pipes making up the path. The conducted analysis of a present WDS provides insight into the process of actively influencing the resilience of WDS locally and globally by adding pipes. The study shows that especially pipes added close to the reservoirs and main branching points in the WDS result in a high resilience enhancement of the overall WDS.
Water distribution systems are an essential supply infrastructure for cities. Given that climatic and demographic influences will pose further challenges for these infrastructures in the future, the resilience of water supply systems, i.e. their ability to withstand and recover from disruptions, has recently become a subject of research. To assess the resilience of a WDS, different graph-theoretical approaches exist. Next to general metrics characterizing the network topology, also hydraulic and technical restrictions have to be taken into account. In this work, the resilience of an exemplary water distribution network of a major German city is assessed, and a Mixed-Integer Program is presented which allows to assess the impact of capacity adaptations on its resilience.
Der CMS-Guide
(2001)
Lohr, J. ; Deppe, A: Der CMS-Guide. Content Management-Systeme: Erfolgsfaktoren, Geschäftsmodelle, Produktübersicht. Stand: 3.9.2001 [Manuskript]. Braunschweig: Vieweg 2001. XVII, 253 S. ISBN 3-528-05768-8 [Aufl. vergriffen] Nach einer Einführung in die Grundlagen des Content Managements, in der die Begriffe Daten, Content Prozess und Content Life Cycle erläutert werden, erfolgt eine Klassifizierung von Content-Management-Systemen in die Bereiche Cross Media Publishing, Infobroker (Syndica-tor), Dokumentenmanagement, Informationspool, Unternehmensinformation, Wissensmanagement, Training, Portale, Customer Interaction & Care, Customer Relationship Management, Kommerzielle Community, Application Service Provider, E-Commerce und Marktplätze. Anhand einer technischen und inhaltlichen Zusammenfassung der Einsatzbereiche ergeben sich die Leistungsmerkmale: Visualizing, Retrieval, Organizing, Collaboration, Modularisierung, Skalierbarkeit und Authoring. Produkte werden den Einsatzbereichen zugeordnet und ausführlich beschrieben. Dabei fällt auf, dass bei den "Top-20-Produkten" die Bereiche Cross Media Publishing, Unternehmensinformation und Informationspool dominieren. Geringe Unterstützung erfahren zurzeit die Bereiche Wissensmanagement, Customer Interaction & Care sowie Training. Ein kritischer Erfolgsfaktor für die Einführung und den Betrieb eines Content-Management-Systems ist die Unterstützung des gewählten Geschäftsmodells. Die Einführung kann durch technische und organisatorische Auswahlverfahren unterstützt werden. Ein Schichtenmodell zeigt die Einbindung oder Optimierung eines Content-Management-Systems in ein Unternehmen. Einerseits können organisatorische, innerbetriebliche und marktorientierte Anforderungsprofile abgeleitet werden, andererseits ergeben sich aus der innerbetrieblichen IT-Struktur Determinanten für die Leistungs-merkmale und den Funktionsumfang des auszuwählenden Content-Management-Systems. Als ein wesentlicher kritischer Erfolgsfaktor stellte sich heraus, dass das Content-Management-System in der Lage sein sollte, dynamische Geschäftsmodelle abzubilden. Dieses Kriterium wird zusätzlich durch die diversen Checklisten, deren Aufbau auf dem Schichtenmodell basiert, herausgearbeitet.
Der CMS-Guide : Content-Management-Systeme: Erfolgsfaktoren, Geschäftsmodelle, Produktübersicht
(2001)
Berlin, TU, Diss., 1998 x, 277 S., graph. Darst. auch erschienen unter dem gleichen Titel als Fortschriftt-Berichte VDI : Reihe 10, Informatik, Kommunikationstechnik ; 564 ISBN 3-18-356410-6 Kurzfassung Die Einführung von Multimedia-Diensten und die Etablierung einer Informationsgesellschaft bringt neben technischen Gesichtspunkten auch eine Reihe von wirtschaftlichen, rechtlichen und politischen Aspekten mit sich, die der vertieften Beobachtung und ggf. einer aktiven und gezielten Gestaltung bedürfen. Als Schritt zum Übergang ins digitale Multimedia-Zeitalter werden die hochwertigen und damit schnellen digitalen Zugangstechnologien und die Individualisierung von Diensten immer wichtiger. Die Multimedia-Dienste bieten diverse Dienstleistungen, die mit Hilfe eines einfachen Modells, bestehend aus Mittlerplattform und Architektur, beschrieben werden können. Die Dienste haben charakteristische Funktionen und Aufgaben, die über mehrere Server, unterschiedliche Endgeräte und diverse Zugangswege bereitgestellt werden. Eine wichtige Basis stellen die Standards, z. B. DAVIC und DVB, dar. Erste grundlegende Erfahrungen aus Piloten bilden die Basis für den Betrieb der Multimedia-Dienste und interaktiven Kommunikationsdienste. Über die oben beschriebene Technologie hinaus könnten für den Betrieb von Multimedia-Plattformen weitere Aspekte, wie die universelle Kommunikationsplattform XAPI, die bestehenden Dienstekonzepte des Intelligenten Netzes und die Ganzheitlichkeit der Chaostheorie, einen wichtigen Einfluß ausüben. Einen zweiten Schritt ins digitale Multimediazeitalter stellt die Integration ins gesellschaftliche Leben dar. Die Angebote von Multimedia-Diensten in Deutschland unterliegen Einflüssen, die aus den Bundesländern, der Bundesregierung, der Europäischen Union und Internationalen Abkommen hervortreten. Durch medienpolitische Zielstellungen werden gesetzliche Rahmen definiert, was sich zwangsläufig auf die Wirtschaftlichkeit von Multimedia-Diensten auswirkt. Unter die wirtschaftlichen Aspekte fallen die Kundengruppen, die Branchen und deren Produkte und Dienstleistungen. Die wichtigsten rechtlichen Grundlagen sind das Telekommunikations-, Informations- und Kommunikationsgesetz, Landesmedien- und Urheberrecht, diverse andere Gesetze und das Lizenzrecht. Die medienpolitischen Aktivitäten einzelner Unternehmen in Deutschland werden von den Verflechtungen der Medienunternehmen, dem Machtkampf um Fernsehinhalte und deren Rechten sowie den wichtigsten Unternehmen mit ihren Produkten und Dienstleistungen bestimmt. Ausgehend von der Problematisierung werden drei Lösungen entwickelt. Die universellen Kommunikationsplattformen XAPI und das Intelligente Netz IN schaffen neue Konzepte, die in eine technisch-betriebliche Lösung – das Dienstmanagement - einfließen. Der Kunde benötigt ein Dienstangebot für die Nutzung von Multimedia-Diensten. Die Grundlagen der kundenorientierten Lösung - Dienstangebot - bilden die vertrieblichen und interdisziplinären Probleme aus dem Kapitel „Problematisierung“. Mit der Chaostheorie ist eine Betrachtung der Ganzheitlichkeit möglich. Ein Teilaspekt der gesellschaftlichen Belange - die ökonomischen Entwicklung - kann mit Hilfe einer ökonomischen Lösung – der Gesamtheitlichkeit - dargestellt werden. Der Begriff ”Multimedia-Dienst” sagt schon aus, daß eigentlich alle und alles betrachtet werden kann. Alle Entwicklungen und Konzepte können in ein Gesamtkonzept einfließen und diese neu prägen. Es kann daher nur ein Ausschnitt der zu erwartenden Problemen aufzeigt werden. Die vorliegende Arbeit kann für die Beteiligten aus Technik, Wirtschaft, Recht und Politik eine Fülle von Fragestellungen beantworten und Anforderungen transparent darstellen, um frühzeitig geeignete Instrumente zum Betrieb, zur Wertschöpfung und zur gesellschaftlichen Kontrolle der digitalen Multimedia-Dienste festzulegen und andererseits den potentiellen Anbietern Planungssicherheit für den Einstieg in die neuen Märkte zu geben.
Jürgen Lohr, Jahrgang 1962, beschäftigt mit Softwareentwicklung im Projekt "Interaktive Multimedia" bei Telekom AG, Entwicklungszentrum Berlin. Zuerst erschienen in: Telekom-Praxis Ausgabe 1996. Inhaltsverzeichnis: 1. Einleitung 1.1 Einführung 1.2 Neue Dienste und Anwendungen 2 Modell zur Verteilung und Architektur 3 Technologien 3.1 Netzwerk 3.2 Computertechniken 3.3. Aufgaben der Server 4 Geplanter Einsatz der Pilotprojekte 4.1 Pilote der Telekom 4.2 Show-Case Berlin 5 Verwendete Server-Architektur 5.1 Berlin - SEL/Alcatel 5.2 Hanburg - Philips 5.3. Köln/Bonn - Digital, FUBA und Nokia 5.4 Nürnberg - Oracle, nCube und Sequent 5.5 Stuttgart - SEL/Alcatel, Hewlett Packard und Bosch 6 Zukünftige Aspekte 6.1 DVB 6.2 DAVIC 6.3 weitere Aspekte 7 Zusammenfassung 8 Schrifttum 9 verwendete Abkürzungen
zuerst erschienen in Telekom-Praxis Ausgabe 1997. Von Jürgen Lohr, Jahrgang 1962, beschäftigt mit Softwareentwicklung im Projekt "Interaktive Multimedia" bei der Deutschen Telekom AG, Entwicklungszentrum Berlin. 26 S. Der Beitrag befaßt sich mit dem Thema der universellen Kommunikationsplattform für neue, interaktive, multimediale Dienste und Anwendungen. Ausgehend von den Diensten wird ein Referenzmodell für offene Kommunikation und die Kommunikationsplattform kurz vorgestellt. Desweiteren wird die XAPI mit den Grundbegriffen, den Phasen der Kommunikation und dem Status Modell dargelegt. Ebenfalls werden die realisierten Service Provider erläutert. Abschließend werden zukünftige Vorhaben aus den Standardisierungsprojekten ITU und DAVIC sowie weitere Realisierungen aufgezeigt.
Zuerst erschienen in Telekom-Praxis Ausgabe 2000. 24 S. Innovative multimediale Dienste werden durch die Globalisierung und Konvergenz der Märkte, als auch durch Provider-Strategien ausgerichtet. Grundlegende Innovationsfelder sind: Globaler Zugang, Navigation und Intelligenter Inhalt. Die MPEG-Standards - im besonderen MPEG-4 und MPEG-7 - helfen, die oben genannten Forderungen zu erfüllen. Weiterhin ermöglichen sie auch für die Provider und den Kunden eine Zukunftssicherheit zu geben und einen zeitlichen Bestand für innovative Produkte zu sichern. Die Aufwärtkompabilität der MPEG-Standards ermöglicht die Vermeidung von Überschneidung und die Erschließung neuer Dimensionen.
In: Unterrichtsblätter / Deutsche Telekom AG. 53. 2000. 7. S. 326-340. (15 S. ) Die Multimedia-Dienste erhalten durch die Datenreduktion bei der Kompressionstechnologie eine Wirtschaftlichkeit, die den breiteren Einsatz von breitbandigen Diensten erlaubt. Die Dienste benötigen für die verschiedenen Medien nicht mehr so große Übertragungs- und Speicherleistungen. Bei den entwickelten Verfahren, den so genannten MPEG-(Motion Picture Experts Group-)Standards, werden die Video- und Tonsignale in die digitale Ebene überführt und anschließend unrelevante Signalanteile entfernt. Der daraus resultierende Datenstrom benötigt weniger Bandbreite bei der Übertragung zum Endkunden. Die MPEG-Organisation wurde bereits im Jahre 1988 ins Leben gerufen und ist ein gemeinsames Gremium der beiden Organisationen ISO (International Standard Organization) und IEC (International Electrotechnical Commission), welches sich mit der Standardisierung von Kodier- und Kompressionsverfahren für die digitalen Bild-, Video und Audioformate befasst. Mittlerweile sind vier wichtige Standards mit MPEG-1, MPEG-2 und MPEG-4 verabschiedet worden sowie mit MPEG-7 in Vorbereitung. Da die Grundlagen zu MPEG-1, -2 und -Audio bereits in anderen Beiträgen behandelt wurden, werden hier ausschließlich die neuen bzw. aktuellen MPEG-Standards vorgestellt.
In: Unterrichtsblätter / Deutsche Telekom AG. 54. 2001. 7. S. 410-420 (11 S. ) Angesichts der zunehmenden Globalisierung von Informationen und Informationsdiensten können Inhalte (Contents) für mehrere unterschiedliche Dienste genutzt und auf verschiedenen Endgeräten ausgegeben werden. Hier setzt ein Content-Management-System (CMS) an, welches sowohl für die Kunden als auch für die Anbieter der unterschiedlich distribuierten Dienste Synergien und somit Einsparpotenziale bietet. Darüber hinaus werden für die Anbieter dieser Dienste durch die allgemeine Definition von Leistungstools und die Definition von Wertschöpfungsketten künftige Produktentwicklungen vereinheitlicht und optimiert werden. Mit der Entwicklung und Vertriebsfreigabe immer weiterer Informationsdienste, die von verschiedenen Dienste-Providern betrieben werden, ist der Bedarf an einer Koordinierung der Entwicklungen und Investitionen im Bereich der Content-Akquisition und des Content-Management (CM) bedeutend angestiegen. Neben Akquisition, lizenzrechtlichen Fragen und Verwaltung des im Rahmen von Diensten angebotenen Content rücken vor allem auch Fragen der Gestaltung von Content-Management-Plattformen (CMP) immer stärker in den Blickpunkt. Der Beitrag stellt die globalen Ergebnisse dar, die in einem Forschungs- und Entwicklungsauftrag des Zentralbereichs Innovationsmanagement der Deutschen Telekom zu diesem Thema ermittelt wurden. Es werden die Kernmodule für eine Content- Management-Plattform beschrieben, die die Anforderungen an die Bereitstellung vielfältiger Content-Angebote erfüllt. Die folgenden Themen werden behandelt: + Begriffsbestimmung, + Content- und Dienste-Portfolio, + Standard Content-Prozess, + synergetische Content-Plattform (sCP), + Modelle der sCP, + Aspekte beim Betrieb und + Nutzen eines Content-Management.
In: Unterrichtsblätter / Deutsche Telekom AG. 53. 2000. 11. S. 618-634 (17 S.) Wo man hinblickt: Turbulenzen, Unvorhersagbarkeiten, Unregelmäßigkeiten – kurz Chaos. Ist unsere wissenschaftliche Sichtweise falsch, alle Vorgänge des Kosmos auf die Basis der Ordnung abzubilden? – Nein. Mit Chaos ist nicht Fehlen jeglicher Ordnung und völlig regelloses Durcheinander gemeint, sondern – auf Grund der Vernetztheit der vielen Elemente, die miteinander eine Wechselwirkung haben – die Unberechenbarkeit der Naturprozesse. Die Chaostheorie erlaubt durch die Modellierung weit auseinander liegende Problemfelder miteinander zu verknüpfen, um dann in einem Modell die Zusammenhänge erkennbar zu machen. Mit Hilfe der Chaostheorie werden gesellschaftliche Prozesse abgebildet und dann mit einer Simulation neue, globale Strategien erstellt, um kritische Systempunkte (Systemelemente) zu erkennen. Der nachfolgende Beitrag beschreibt die Modellierung am Beispiel der Multimedia-Dienste und gibt mit einem umfassenden Glossar eine Einführung in die Begrifflichkeiten der Chaostheorie. Die Chaostheorie ist die mathematisch-physikalische Theorie zur Beschreibung von Systemen, die zwar durch Gesetzmäßigkeiten determiniert sind, bei denen aber kleine Änderungen der Anfangsbedingungen ein exponentielles Anwachsen von Störungen bewirken. Das Verhalten derartiger Systeme führt zur Ausbildung chaotischer Strukturen und ist langfristig nicht vorhersagbar. Die Chaostheorie ist beispielsweise in der nichtlinearen Optik, bei chemischen Reaktionen und der Wettervorhersage anwendbar.
In: Konferenzband zur Konferenz Medienproduktion 2007, 1.12.2008. 29 S. High Quality Streaming beschäftigt sich mit High Definition Television und Mehrkanal Sound. In diesem Beitrag werden die Technologien und Anwendungsperspektiven für HD Medien-Dienstleistungen beschrieben. Der Beitrag entstand im Rahmen der Konferenz Medienproduktion „Expansion und Mobilität“ am 7. Dezember 2007. Der Beitrag beschreibt Geschäftsmodelle, Technologien und neue Anwendungen für High Quality Streaming. Neben der Präsentation wurden auch die Medienproduktionen der unterschiedlichen HQ-Mediendienste vorgeführt. Die Mediendienste sind im Rahmen der Forschungsarbeit High Quality Media Services des Studiengangs Communication and Multimedia Design (Fachbereich Elektrotechnik und Informationstechnik) an der Fachhochschule Aachen entstanden. Eine Marktevaluierung der deutschen und niederländischen Märkte, internationale Expertengesprächen sowie ein Prototypen HDMediaservices bilden die Basis der Forschungsarbeit. Die Mediendienste stehen zur Demonstration unter dem Link media.fh-aachen.de bereit. HQ-Mediendienste bedeuten: Gestochen scharfe Bilder in High Definition, volle Klänge in Surround und das über das Internet, wo doch gerade mal die briefmarkengroßen Bilder mit unscharfen Konturen und krätzenden Klängen der heutigen Portale wie YouTube Alltag sind.
The Volatility Framework is a collection of tools for the analysis of computer RAM. The framework offers a multitude of analysis options and is used by many investigators worldwide. Volatility currently comes with a command line interface only, which might be a hinderer for some investigators to use the tool. In this paper we present a GUI and extensions for the Volatility Framework, which on the one hand simplify the usage of the tool and on the other hand offer additional functionality like storage of results in a database, shortcuts for long Volatility Framework command sequences, and entirely new commands based on correlation of data stored in the database.
Time-of-flight (ToF) sensors have become an alternative to conventional distance sensing techniques like laser scanners or image based stereo. ToF sensors provide full range distance information at high frame-rates and thus have a significant impact onto current research in areas like online object recognition, collision prevention or scene reconstruction. However, ToF cameras like the photonic mixer device (PMD) still exhibit a number of challenges regarding static and dynamic effects, e.g. systematic distance errors and motion artefacts, respectively. Sensor calibration techniques reducing static system errors have been proposed and show promising results. However, current calibration techniques in general need a large set of reference data in order to determine the corresponding parameters for the calibration model. This paper introduces a new calibration approach which combines different demodulation techniques for the ToF- camera 's reference signal. Examples show, that the resulting combined demodulation technique yields improved distance values based on only two required reference data sets.
With its need for high SNR and short acquisition times, Cardiac MRI (CMR) is an intriguing target application for ultrahigh field MRI. Due to the sheer size of the upper torso, however, the known RF issues of 7T MRI are also most prominent in CMR. Recent years brought substantial progress but the full potential of the ultrahigh field for CMR is yet to be exploited. Parallel transmission (pTx) is a promising approach in this context and several groups have already reported B1 shimming for 7T CMR. In such a static pTx application amplitudes and phases of all Tx channels are adjusted individually but otherwise imaging techniques established in current clinical practice 1.5 T and 3 T are applied. More advanced forms of pTx as spatially selective excitation (SSE) using Transmit SENSE promise additional benefits like faster imaging with reduced fields of view or improved SAR control. SSE requires the full dynamic capabilities of pTx, however, and for the majority of today's implemented pTx hardware the internal synchronization of the Tx array does not easily permit external triggering as needed for CMR. Here we report a software solution to this problem and demonstrate the feasibility of CINE CMR at 7 T using a Tx array.
Mobile Anwendungen nehmen mit der Verbreitung von Smartphones zu. Die Akzeptanz der Nutzer bestimmt den Erfolg solcher mobiler Applikationen dabei maßgeblich. Um diese Anerkennung zu schaffen, ist eine möglichst hohe Gebrauchstauglichkeit, auch Usability genannt, notwendig. Die Informationsbroschüre „Prototyping zur Verbesserung der Benutzerfreundlichkeit mobiler Software“ richtet sich an Personen, die an der Gestaltung und entwicklung von (mobiler) Software beteiligt sind. In dieser Broschüre werden mögliche Potenziale im Bereich einer effizienten und benutzerzentrierten Software-Entwicklung aufgezeigt.
Es wird von Gleichungen ausgegangen, mit denen die Modellkoeffizienten von Regelstrecken mit Ausgleich aus der gemessenen Sprungantwort ermittelt werden können. Die Übertragungsfunktion der Regelstrecke hat einen konstanten Zähler und ein Nennerpolynom. Unter der Annahme, daß die ideale und exakte Sprungantwort des Systems durch ein stochastisches Signal gestört wird, wird untersucht, wie die Fehler der ermittelten Modellkoeffizienten von Kennwerten des Störsignals und von der Meßzeit für die Sprungantwort abhängen. Durch eine Simulation auf dem Digitalrechner wurden die Ergebnisse kontrolliert. Es zeigt sich, daß durch eine Filterung der gestörten Sprungantwort über einen Tiefpaß keine Verbesserung der Analyseergebnisse erreicht werden kann, da das Identifizierungsverfahren eine glättende Eigenschaft hat.