Refine
Year of publication
Document type
- Contribution to a Periodical (288) (remove)
Is part of the Bibliography
- No (288) (remove)
Keywords
- Interview (13)
- Android (6)
- Cloud Computing (4)
- SOA (4)
- SOAP (4)
- Verteilte Systeme (4)
- REST (3)
- Apache Kafka (2)
- Big data (2)
- CEP (2)
Course of studies
Smart Glasses sind Brillen mit einem integrierten Computer, welche dem Träger visuell Informationen in das Sichtfeld einfügen und mithilfe von Eyetracking, Gesten- und Sprachsteuerung bedient werden können. Smart Glasses werden bereits heutzutage in vielen verschiedenen Branchen wie Beispielsweise in der Logistik, Bauwirtschaft und Flugzeugwartung eingesetzt, um verschiedene Problemstellungen der Arbeiter zu vereinfachen beziehungsweise diese komplett zu lösen. In der Bauwirtschaft werden diese Beispielsweise benutzt, um Leitungen hinter Wänden und unter den Böden zu visualisieren, um diese beim Bohren nicht zu treffen. Aufgrund der variablen Einsatzmöglichkeiten gewinnen diese auch im medizinischen Kontext immer mehr an Bedeutung. Dieses Paper zeigt auf, wie aktuelle und zukünftige Smart Glasses Technologien in Zukunft im Chirurgischen Kontext eingesetzt werden können, um den Operationsprozess optimieren zu können.
Compared to relational databases, graph database systems provide a novel way of processing and analyzing highly interconnected data. Due to their unique properties, graph databases embody an interesting area of research in academic circles. For this reason, this work is fundamentally concerned with examining the state of the industry and current challenges. In this regard, we revisit the basic concepts and highlight the tremendous heterogeneity of available systems using the example of differing path semantics. Based on this insight, we explore algorithmic advancements for graph query processing regarding path finding and worst-case optimal joins. Subsequently, we discuss issues regarding performance and support for graph analytics. Finally, we provide an overview of GQL, a joint standardization effort towards unification of property graph databases.
Wikipedia is the largest free encyclopedia and one of the most popular websites worldwide. Analyzing user activity within this encyclopedic ecosystem represents unique opportunities for academic research and analysis. For this reason, this work is fundamentally concerned with obtaining and processing real-time article edit streams from Wikipedia. In this regard, we leverage the Wikimedia EventStreams API and propose a general-purpose event pipeline allowing for further processing of observed page edits. In the suggested pipeline, events are ingested and transported via an Apache Kafka cluster and inserted into a ClickHouse database for storage and analysis. Finally, we confirm the viability of our design by exploring several exemplary analytical use cases.
Die Anforderungen an eingebettete Systeme steigen. Immer mehr Anwendungen mit steigender Komplexität sollen darauf ausgeführt werden, ohne dass der Energiebedarf zu stark zunimmt. Nur durch bessere Hardware lässt sich diese Herausforderung allerdings nicht bewältigen. In dieser Arbeit werden verschiedene Ansätze zur Optimierung eingebetteter Systeme betrachtet. Es werden Optimierungen der Software und der Einsatz rekonfigurierbarer Systeme vorgestellt. Außerdem werden Techniken zur Optimierung des Speichersystems erläutert. Dieses hat einen besonders hohen Anteil am Energieverbrauch eines eingebetteten Systems
Diese Arbeit behandelt mehrere Konzepte zur Leistungsbewertung von eingebetteten und Echtzeitsystemen. Das Ermitteln von oberen Zeitschranken, insbesondere der schlechtesten Ausführungszeit, lässt sich durch Verwendung von Zeitanalysen realisieren, wobei zwischen statischen und messbasierten Zeitanalysemethoden unterschieden wird. Für die Gesamtbewertung des Systems ist Benchmarking eine geeignete Methode, um wichtige Zeitparameter zu messen und diese ggf. in den Vergleich mit anderen Systemen zu setzen. Der Einsatz von Simulationen zur eistungsbewertung erweist sich als besonders sinnvoll, wenn die Kosten eines Fehlers unakzeptabel hoch sind oder die Validierung mit der Realkomponente unpraktikabel ist und somit Qualitätsmaßnahmen durch fr¨uhzeitige Validierung
benötigt werden.
Weite Bereiche der Softwareentwicklung werden
bereits heute durch diverse Werkzeuge unterstützt und teilweise automatisiert. Eine Verbesserung dieser Automatisierung soll dazu führen, dass die Entwicklung schneller und kosteneffizienter wird und eine höhere Qualität aufweist. Durch stetig steigende Forschungsarbeit im Bereich der künstlichen Intelligenz kann auch die werkzeugunterstützte Softwareentwicklung (engl. computer-aided software engineering, CASE) profitieren, indem bereits gängige Automatisierungsschritte durch den Einsatz neuer Methoden stark verbessert werden. Auch können sich durch diese Forschung neue Möglichkeiten ergeben, weitere Aufgaben während der Entwicklung zu automatisieren. Diese Verbesserungen und neuen Möglichkeiten sollen in dieser Ausarbeitung erklärt und gegebenenfalls genauer untersucht werden. In Tests, die im Rahmen dieser Ausarbeitung durchgeführt wurden, hat sich das Potential einiger Werkzeuge gezeigt, jedoch auch, dass sich die meisten Werkzeuge auf die KI-gestützte Verbesserung bereits verbreiteterWerkzeuge beschränken und damit nur wenig zu einer Automatisierung des kompletten Prozesses beitragen. Außerdem hat sich mit dem sog. Data Poisoning neues Gefahrenpotential herausgestellt.
Vernetzte Systeme in Fahrzeugen dienen vor allem
der Erhöhung der Sicherheit, Effizienz und dem Komfort im Straßenverkehr sowie der Reduzierung der Umweltbelastung. Ein Beispiel hierfür bietet das sogenannte eCall-System, welches seit März 2018 in allen Neuwägen verpflichtend verbaut werden muss. Dabei setzt das System nach einem Verkehrsunfall einen automatisierten Notruf ab, bei welchem Daten zum Standort, zur Uhrzeit, zur Fahrtrichtung sowie zur Fahrzeugbeschreibung übermittelt werden. Anhand der dadurch resultierenden Erhöhung der Reaktionszeit der Einsatzkräfte um 40 Prozent bis 50 Prozent, können sowohl Menschenleben gerettet als auch eine schnellere Behandlung an Verletzten durchgeführt werden. Trotz der schnelleren Reaktionszeiten ist die Anzahl an verletzten und getöteten Personen im Straßenverkehr annäherungsweise konstant geblieben. Daher stellt sich zunehmend die Frage, ob bestimmte Arten von Verkehrsunfällen, wie z.B. Unfälle
aufgrund von Alkoholeinfluss oder Sekundenschlaf, mit Unfallpräventionssystemen verhindert werden können. Hierzu stellt dieses Paper ein Konzept in Form eines UseCase- und Aktivitätsdiagrammes dar, bei welchem die Überwachung der Vitaldaten mit Hilfe von Biosensoren in das bereits existierende e-Call-System integriert wird. Dabei werden zu Beginn dieses Papers die theoretischen Grundlagen erläutert. Im Anschluss daran werden psychische und physische Faktoren im Straßenverkehr sowie die Messung dieser mit Hilfe von Vitaldaten aufgezeigt. Daraufhin wird das Prinzip des Gehörgangsensor erörtert,der als Grundlage zur Bearbeitung des Konzeptes dient. Nachfolgend wird das Konzept aufgezeigt und erläutert. Am Ende dieses Papers werden die wesentlichen Ergebnisse in prägnanter Form dargestellt und im Anschluss kritisch hinterfragt.
Akka Cluster
(2021)
Akka Cluster ist ein Framework, das die Entwicklung verteilter Systeme ermöglicht. In dieser Arbeit wird der Funktionsumfang von Akka Cluster untersucht, ein Teilbereich des Frameworks Akka. Gegenstand der Analyse ist ein einfacher, mit Akka aufgesetzter Cluster, um anschließend Funktionen wie Singletons, Sharding, verteilte Daten und Mechanismen zur Fehlertoleranz zu untersuchen. Dabei wird auch versucht, unter die Abstraktionsschicht zu schauen, die Akka Cluster bietet. Dies gibt unter anderem ein klareres Bild, wie umfangreich die Entwicklung verteilter Systeme ist. Durch Monitoring soll anschließend ein Überblick über einen Cluster gegeben werden, welcher über eine REST-Schnittstelle auch anderweitig verwaltet werden kann.