Refine
Year of publication
Document Type
- Article (45) (remove)
Language
- German (45) (remove)
Has Fulltext
- yes (45) (remove)
Keywords
- Multimediamarkt (6)
- Rapid prototyping (4)
- Blitzschutz (3)
- Rapid Prototyping (3)
- 3D-Printing (2)
- Hochschuldidaktik (2)
- Karosseriebau (2)
- Kraftfahrzeugbau (2)
- Lightning protection (2)
- Rapid Manufacturing (2)
- Sportwagen (2)
- Stereolithographie (2)
- Studentenprojekt (2)
- Virtuelle Fahrzeugentwicklung (2)
- car body construction (2)
- rapid manufacturing (2)
- Alternative Energiequelle (1)
- Anforderungen (1)
- Arbeitsbelastung (1)
- Architektur (1)
Institute
- Fachbereich Maschinenbau und Mechatronik (15)
- Fachbereich Elektrotechnik und Informationstechnik (7)
- Fachbereich Energietechnik (5)
- Fachbereich Architektur (3)
- Fachbereich Gestaltung (3)
- Fachbereich Medizintechnik und Technomathematik (3)
- Fachbereich Wirtschaftswissenschaften (3)
- ZHQ - Bereich Hochschuldidaktik und Evaluation (3)
- ECSM European Center for Sustainable Mobility (2)
- Fachbereich Bauingenieurwesen (2)
- Fachbereich Luft- und Raumfahrttechnik (2)
- IfB - Institut für Bioengineering (2)
- Nowum-Energy (2)
- FH Aachen (1)
„Smartes“ Laden an öffentlich zugänglichen Ladesäulen – Teil 2: USER-Verhalten und -Erwartungen
(2021)
Dem Blitzschutz von Anlagen der regenerativen Energien kommt in Zukunft eine steigende Bedeutung zu. Dabei ist es notwendig zu berücksichtigen, dass die Schutzmaßnahmen technisch/wirtschaftlich ausgewogen sind. Erbauer, Besitzer oder Benutzer von netzautarken Hybridanlagen haben zu entscheiden, ob die Anlage einen Schutz braucht oder nicht. Um diese Entscheidung zu fällen, ist eine Risikoanalyse als erster Schritt sinnvoll. Diese muss dabei die für die Hybridanlage relevanten Schadenarten und spezifischen Parameter, Werte und Randbedingungen mit einbeziehen. Dazu ist die Hilfe eines Blitzschutzexperten sehr hilfreich.
zuerst erschienen in Telekom-Praxis Ausgabe 1997. Von Jürgen Lohr, Jahrgang 1962, beschäftigt mit Softwareentwicklung im Projekt "Interaktive Multimedia" bei der Deutschen Telekom AG, Entwicklungszentrum Berlin. 26 S. Der Beitrag befaßt sich mit dem Thema der universellen Kommunikationsplattform für neue, interaktive, multimediale Dienste und Anwendungen. Ausgehend von den Diensten wird ein Referenzmodell für offene Kommunikation und die Kommunikationsplattform kurz vorgestellt. Desweiteren wird die XAPI mit den Grundbegriffen, den Phasen der Kommunikation und dem Status Modell dargelegt. Ebenfalls werden die realisierten Service Provider erläutert. Abschließend werden zukünftige Vorhaben aus den Standardisierungsprojekten ITU und DAVIC sowie weitere Realisierungen aufgezeigt.
Das Gesundheitswesen ist konfrontiert mit steigenden Kosten und einer immer schwieriger werdenden Personalsituation. Zeitgleich versprechen moderne Sprachsteuerungssysteme Prozesse in Arztpraxen und Krankenhäusern zu verschlanken und Vorgänge zu beschleunigen. Dennoch wird derzeit der Einsatz von Sprachsteuerungssystemen in Arztpraxen oder Krankenhäusern nur selten beobachtet, was auch an den besonders strengen Datenschutzauflagen der Datenschutzgrundverordnung (DSGVO) liegt. Darüber hinaus wirft die niedrige Nutzungsrate die Frage nach den konkreten Anforderungen und ihrer Umsetzbarkeit auf, was durch den vorliegenden Beitrag adressiert wird, indem die Ergebnisse von Interviews mit acht medizinischen Fachexperten ausgewertet werden. Ergänzend wird die technische Umsetzbarkeit einzelner Anforderungen mit unterschiedlichen Cloud-Anbietern erprobt.
Jürgen Lohr, Jahrgang 1962, beschäftigt mit Softwareentwicklung im Projekt "Interaktive Multimedia" bei Telekom AG, Entwicklungszentrum Berlin. Zuerst erschienen in: Telekom-Praxis Ausgabe 1996. Inhaltsverzeichnis: 1. Einleitung 1.1 Einführung 1.2 Neue Dienste und Anwendungen 2 Modell zur Verteilung und Architektur 3 Technologien 3.1 Netzwerk 3.2 Computertechniken 3.3. Aufgaben der Server 4 Geplanter Einsatz der Pilotprojekte 4.1 Pilote der Telekom 4.2 Show-Case Berlin 5 Verwendete Server-Architektur 5.1 Berlin - SEL/Alcatel 5.2 Hanburg - Philips 5.3. Köln/Bonn - Digital, FUBA und Nokia 5.4 Nürnberg - Oracle, nCube und Sequent 5.5 Stuttgart - SEL/Alcatel, Hewlett Packard und Bosch 6 Zukünftige Aspekte 6.1 DVB 6.2 DAVIC 6.3 weitere Aspekte 7 Zusammenfassung 8 Schrifttum 9 verwendete Abkürzungen
Häufig bremsen geringe IT-Ressourcen, fehlende Softwareschnittstellen oder eine veraltete und komplex gewachsene Systemlandschaft die Automatisierung von Geschäftsprozessen. Robotic Process Automation (RPA) ist eine vielversprechende Methode, um Geschäftsprozesse oberflächenbasiert und ohne größere Systemeingriffe zu automatisieren und Medienbrüche abzubauen. Die Auswahl der passenden Prozesse ist dabei für den Erfolg von RPA-Projekten entscheidend. Der vorliegende Beitrag liefert dafür Selektionskriterien, die aus einer qualitativen Inhaltanalyse von elf Interviews mit RPA-Experten aus dem Versicherungsumfeld resultieren. Das Ergebnis umfasst eine gewichtetet Liste von sieben Dimensionen und 51 Prozesskriterien, welche die Automatisierung mit Softwarerobotern begünstigen bzw. deren Nichterfüllung eine Umsetzung erschweren oder sogar verhindern. Die drei wichtigsten Kriterien zur Auswahl von Geschäftsprozessen für die Automatisierung mittels RPA umfassen die Entlastung der an dem Prozess mitwirkenden Mitarbeiter (Arbeitnehmerüberlastung), die Ausführbarkeit des Prozesses mittels Regeln (Regelbasierte Prozessteuerung) sowie ein positiver Kosten-Nutzen-Vergleich. Praktiker können diese Kriterien verwenden, um eine systematische Auswahl von RPA-relevanten Prozessen vorzunehmen. Aus wissenschaftlicher Perspektive stellen die Ergebnisse eine Grundlage zur Erklärung des Erfolgs und Misserfolgs von RPA-Projekten dar.
Die Berechnung der Durchströmung von Bauteilen ist gegenüber derjenigen von umströmten Bauteilen deutlich im Hintertreffen. Das liegt vor allem an der fehlenden Verfügbarkeit geeigneter optisch transparenter Modellkanäle für die experimentelle Analyse. Der Beitrag stellt ein Verfahren zur Herstellung transparenter durchströmter Geometrien auf der Basis generativ gefertigter Urmodelle vor. Damit können beliebig komplexe Innenströmungen optisch analysiert werden. Anhand von zwei Beispielen aus der Medizin, der Modellierung der oberen Atemwege und des Bronchialbaums, wird das Verfahren vorgeführt. Der generative Bauprozess mittels 3D-Printing wird beschrieben und die Abformung in transparentem Silikon gezeigt. Schließlich werden beispielhaft der Messaufbau und Ergebnisse der Anwendung vorgestellt. Das Verfahren bildet die Grundlage für die Analyse und Berechnung komplexer Innenströmungen und trägt somit zur Verbesserung zahlreicher technischer Anwendungen bei.
Ein vorausschauendes Risikomanagement beinhaltet, Risiken zu kalkulieren. Es liefert Entscheidungsgrundlagen, um diese Risiken zu begrenzen und es macht transparent,welche Risiken sinnvoll über Versicherungen abgedeckt werden sollten. Bei Unternehmen, die mit umfangreichen elektronischenEinrichtungen produzieren oder Dienstleistungen erbringen (und das sind heutzutage wohl die meisten), muss auch das Risiko durch Blitzeinwirkungen besondere Berücksichtigung finden. Dabei ist zu beachten, dass der Schaden aufgrund der Nichtverfügbarkeit der elektronischen Einrichtungen und damit derProduktion bzw. der Dienstleistung und ggf. der Verlust von Daten den Hardwareschaden an der betroffenen Anlage oft bei weitem übersteigt.
Die generative Herstellung von Kunststoffbauteilen hat im Gewand des Rapid Prototyping die Produktentwicklung nachhaltig positiv beeinflusst und ist im Begriff als Rapid Manufacturing die Fertigung zu revolutionieren. Je mehr sich die besonderen Eigenschaften generativ gefertigter Kunststoffbauteile herumsprechen, desto lauter wird der Ruf nach Metallbauteilen. Die Entwicklung entsprechender Prozesse läuft auf Hochtouren, kann aber bisher aber erst vereinzelt Erfolge vorweisen. Dabei wären es gerade die Metallbauteile, die ausgestattet mit den besonderen Merkmalen generativ gefertigter Werkstücke, in vielen Branchen einen deutlichen Entwicklungsschub auslösen könnten. Für den potenziellen Anwender ist dabei besonders verwirrend, dass die unterschiedlichsten Ansätze nebeneinander verfolgt werden. Im Folgenden soll daher der Versuche unternommen werden, dieses weite Feld systematisiert darzustellen und Möglichkeiten und Trends zu erläutern.
Als um 1987 ein Verfahren namens Stereolithographie und ein Stereolithography Apparatus (SLA) vorgestellt wurden, war der Traum von der Herstellung beliebiger dreidimensionaler Bauteile direkt aus Computerdaten und ohne bauteilspezifische Werkzeuge Realität geworden. Ein Anwendungs-Szenario wurde gleich mitgeliefert. Diese Technologie würde es möglich machen, die gesamte Ersatzteilversorgung der Amerikanischen Pazifikflotte mittels ein paar dieser Maschinen, umfangreicher Datenstätze und genügend Rohmaterial vor Ort auf einem Flugzeugträger direkt nach Bedarf zu fertigen. Diese Vorstellung definierte schon damals die direkte digitale Fertigung, das Rapid Manufacturing. In der Realität bestanden die mit diesem Verfahren hergestellten Bauteile nur aus Kunststoff, waren ungenau, bruchempfindlich und klebrig und allein in der Produktentwicklung, eben als Prototypen zu benutzen. Sie waren schnell verfügbar, weil zu Ihrer Herstellung keine Werkzeuge benötigt wurden. Folgerichtige und zudem modern hießen sie: Rapid Prototyping. Rapid Prototyping wurde schnell zum Synonym eines neuen Zweiges der Fertigungstechnik, der Generativen Fertigungstechnik. Die weitere Entwicklung brachte neue Verfahren, höhere Genauigkeiten, verbesserte Werkstoffe und neue Anwendungen. Die Herstellung von Negativen, also Werkzeugen, mit dem gleichen Verfahren wurde marketing-getrieben Rapid Tooling genannt und als die ersten Bauteile nicht mehr als Prototypen, sondern als Endprodukte eingesetzt wurden, nannte man dies Rapid Manufacturing - das Ziel war erreicht. War das Ziel wirklich erreicht? Ist es Rapid Manufacturing, wenn ein generativ gefertigtes Bauteil die gewünschte Spezifikation erreicht? Was muss passieren, damit aus dem Phänomen Rapid Prototyping eine Strategie wird, die geeignet ist, einen Paradigmenwechsel von der heutigen Hersteller-induzierten Massenproduktion von Massenartikeln zur Verbraucher-induzierten (und verantworteten) Massenproduktion von Einzelteilen für jedermann ermöglichen und möglicherweise unsere Arbeits- und Lebensformen tiefgreifend zu beeinflussen? Im Beitrag wird der Begriff der (Fertigungs-) Strategie „Rapid Manufacturing“ näher beleuchtet. Es wird diskutiert, welche Maßnahmen auf der technischen und der operative Ebene getroffen werden müssen, damit die generative Fertigungstechnik im Sinne dieser Strategie umgesetzt werden kann. Beispiele belegen, dass diese Entwicklung bereits begonnen hat und geben Anregungen für eine konstruktive Diskussion auf der RapidTech 2006.
Das IoT ist ohne eingebettete Systeme undenkbar. Erst kleine und kleinste Mikrocontroller mit intelligenten Kommunikationsschnittstellen und Anbindung ans Internet ermöglichen sinnvolles und flächendeckendes Einsammeln von Daten. Doch wie kompliziert ist der Einstieg in die Embedded-Welt? Dieser Artikel gibt Einblick, wie die »Arduino-Plattform« die Einstiegshürden für eingebettete Systeme dramatisch reduzieren kann.
Die IMechE Railway Challenge wird jährlich in Stapleford, Großbritannien ausgetragen. Im Rahmen der Challenge entwickeln und bauen Studierende eine Lokomotive und vergleichen sich in verschiedenen Disziplinen, darunter eine automatisierte Zielbremsung, optimale Energierückgewinnung beim Bremsen und minimale Geräuschemissionen. Neben diesen und weiteren technischen Wettbewerbsdisziplinen treten die Fahrzeuge und die Teams auch in nicht-technischen Disziplinen wie einer Business Case Challenge an.
Sieht man sich die umfangreichen Betätigungsfelder für einen Projektsteuerer in den Publikationen der einschlägigen Verbände und der Anbieter etwas genauer an, so wird man feststellen, das nach der eigentlichen Projektvorbereitungsphase mit Wirtschaftlichkeitsberechnungen und Sicherstellung der Finanzierung erhebliche Überschneidungen zu den in der HOAI ausgewiesenen Tätigkeiten der weiteren Planungsbeteiligten, insbesondere des Gebäudeplaners, also des Architekten bestehen. Geht man nun davon aus, dass der Bauherr diese Leistungen nicht doppelt bezahlen will, wäre die logische Konsequenz aus der vollumfänglichen Beauftragung eines Projektsteuerers die Verminderung des Auftragsumfangs an den Architekten, verbunden mit einer Honorarminderung für den Architekten. Damit bricht dem Architekten bei eingehender Betrachtung am Ende mehr als die Hälfte seiner Tätigkeit und damit seiner Grundlage zur Honorarerzielung weg. Der Bauherr muss in erster Linie seine Wünsche definieren und sein Budget bestimmen. Er beauftragt die Planungsbeteiligten und nimmt deren Leistungen entgegen. Sein Problem dabei ist, dass er diese Leistung nicht beurteilen kann, weder in Bezug auf deren Vollständigkeit, noch in Bezug auf deren Inhalt. Hier steht der Projektsteuerer im eigentlichen Sinne. Er muss wissen, was die Planungsbeteiligten für ihr Geld zu leisten haben und wie er diese Leistungen durchsetzen kann. Letztendlich sorgt er dann aber auch dafür, das die Architektenleistungen, also Planung und Ausschreibungsunterlagen vom Bauherrn verstanden werden. Warum aber kann der Architekt selbst seine Leistungen und damit den Nachweis der Leistungserfüllung nicht selbst dem Bauherrn verständlich und damit glaubhaft machen? Es liegt also letztlich in der Hand der Architekten, ob ihr Betätigungsfeld weiter durch in die Planung und Gestaltung eingreifende, zusätzliche Projektsteuerer und Generalunternehmer eingeengt oder sogar weggenommen werden kann. Die Frage, wer das Baugeschehen steuert und lenkt bleibt solange ungeklärt, wie die Architekten dieses Tätigkeitsfeld des Architekten im Baubetrieb weiterhin nur unzulänglich ausfüllen können und wollen.
Low-end-Embedded-Plattformen stellen eine hohe Anforderung an die Entscheidungsfähigkeit des Entwicklers: Zum nächstgrößeren Prozessor greifen und ein Betriebssystem benutzen oder doch besser auf das Betriebssystem verzichten? Die Frage lässt sich einfach beantworten: Einen Nanokernel verwenden und das Embedded-System mit einem minimalen Footprint realisieren. Adam Dunkels Protothreads sind eine ausgesprochen effiziente Art, Mikrocontroller gut strukturiert zu programmieren und gleichzeitig auf Overhead zu verzichten. So können auch mit kleinen 8-bit-Prozessoren anspruchsvolle Aufgaben in einem Thread-Modell bearbeitet werden. Man muss also nicht immer das Rad neu erfinden oder gleich auf Linux-basierte Systeme zurückgreifen.
Im Studiengang Mikrosystemtechnik des Fachhochschulstandortes Zweibrücken werden zwei neue moderne Anlagen für die Herstellung von mikrotechnischen Komponenten in Betrieb genommen: Ein Oxidationsofen für Herstellung dünner Oxidschichten auf Silizium-Einkristallen und eine Belichtungsapparatur für die Fotolithografie - das Besondere an diesen Anlagen: Sie existieren nur virtuell, d.h. als Animationen in einer Computerwelt.
Zuerst erschienen in Telekom-Praxis Ausgabe 2000. 24 S. Innovative multimediale Dienste werden durch die Globalisierung und Konvergenz der Märkte, als auch durch Provider-Strategien ausgerichtet. Grundlegende Innovationsfelder sind: Globaler Zugang, Navigation und Intelligenter Inhalt. Die MPEG-Standards - im besonderen MPEG-4 und MPEG-7 - helfen, die oben genannten Forderungen zu erfüllen. Weiterhin ermöglichen sie auch für die Provider und den Kunden eine Zukunftssicherheit zu geben und einen zeitlichen Bestand für innovative Produkte zu sichern. Die Aufwärtkompabilität der MPEG-Standards ermöglicht die Vermeidung von Überschneidung und die Erschließung neuer Dimensionen.
In: Unterrichtsblätter / Deutsche Telekom AG. 53. 2000. 11. S. 618-634 (17 S.) Wo man hinblickt: Turbulenzen, Unvorhersagbarkeiten, Unregelmäßigkeiten – kurz Chaos. Ist unsere wissenschaftliche Sichtweise falsch, alle Vorgänge des Kosmos auf die Basis der Ordnung abzubilden? – Nein. Mit Chaos ist nicht Fehlen jeglicher Ordnung und völlig regelloses Durcheinander gemeint, sondern – auf Grund der Vernetztheit der vielen Elemente, die miteinander eine Wechselwirkung haben – die Unberechenbarkeit der Naturprozesse. Die Chaostheorie erlaubt durch die Modellierung weit auseinander liegende Problemfelder miteinander zu verknüpfen, um dann in einem Modell die Zusammenhänge erkennbar zu machen. Mit Hilfe der Chaostheorie werden gesellschaftliche Prozesse abgebildet und dann mit einer Simulation neue, globale Strategien erstellt, um kritische Systempunkte (Systemelemente) zu erkennen. Der nachfolgende Beitrag beschreibt die Modellierung am Beispiel der Multimedia-Dienste und gibt mit einem umfassenden Glossar eine Einführung in die Begrifflichkeiten der Chaostheorie. Die Chaostheorie ist die mathematisch-physikalische Theorie zur Beschreibung von Systemen, die zwar durch Gesetzmäßigkeiten determiniert sind, bei denen aber kleine Änderungen der Anfangsbedingungen ein exponentielles Anwachsen von Störungen bewirken. Das Verhalten derartiger Systeme führt zur Ausbildung chaotischer Strukturen und ist langfristig nicht vorhersagbar. Die Chaostheorie ist beispielsweise in der nichtlinearen Optik, bei chemischen Reaktionen und der Wettervorhersage anwendbar.