Refine
Year of publication
Document type
- Contribution to a Periodical (54)
- Bachelor Thesis (41)
- Article (peer-reviewed) (20)
- Working Paper (16)
- Other (12)
- Master's Thesis (9)
- Conference Proceeding (7)
- Report (5)
- Book (2)
- Academic Papers (2)
Language
- German (169) (remove)
Has full text
- Yes (169) (remove)
Keywords
- Umfrage (10)
- Maschinelles Lernen (4)
- Hochschulen (3)
- Künstliche Intelligenz (3)
- Mediennutzung (3)
- Blockchain (2)
- Computermathematik (2)
- Corporate Social Responsibility (2)
- Gesundheitswesen (2)
- Informationssicherheit (2)
Course of studies
- IBW - Internationale Betriebswirtschaft (22)
- APE - Advanced Precision Engineering (19)
- OMB - OnlineMedien (5)
- WIB - Wirtschaftsinformatik (4)
- BMP - Business Management and Psychology (3)
- BAM - Business Application Architectures (2)
- INM - Informatik (2)
- MIB - Medieninformatik (2)
- AIN - Allgemeine Informatik (1)
- BPT - Bio- und Prozess-Technologie (1)
Vonnegut vom General Electric Research hat zusammen mit Langmuir und Schäfer in 1947 die Eigenschaft von Silberjodid (AgI) Niederschläge wie Regen, Schnee, Eis auszulösen, untersucht. Hierfür werden die Gewitterwolken im frühen Entwicklungsstadium im Bereich der Aufwindzonen angeflogen. Bei einer Höhe zwischen ein und fünf Kilometer werden die AgI-Generatoren, die an den Flugzeugtragflächen angebracht sind, eingeschaltet. Die Generatoren verbrennen die Lösung, die als Komplex zusammen mit Wasser und Aceton im Behälter vorliegt. Der entstehende Silberjodid-Rauch löst einen Niederschlag in Form von Regen, Schnee oder Graupel aus. Die Gewitterwolke verliert dadurch die erforderliche Energie, um größere Hagelkörner zu bilden. Die Effektivität von Silberjodid-Kristallen zur Bildung von Eiskristallen und Niederschlägen wird auf die hexagonale Struktur zurückgeführt, wie sie auch die Eiskristalle in der Luft haben. Die optimale Menge, mit der die Wolken geimpft werden liegt bei 11 g pro Liter Lösung. Aufgrund der geringen Löslichkeit von Silberjodid in Wasser wird die Löslichkeit in Komplexen wie z.B. im AgI-KI-Wasser-Aceton-Gemisch gesteigert. Die Impfung der Gewitterwolken ist bei Aufwinden zwischen 3 m/s und 5 m/s, also im Frühstadium effektiv. Dabei spielt jedoch auch die Partikelgröße eine entscheidende Rolle. Monodisperse Partikel mit einem Durchmesser von 10 Nanometern sind bis zu Temperaturen von -17 °C und Partikel mit 100 Nanometer Durchmesser sind bei etwa -10 °C aktiv. Die Versuche belegen eine effektive Eiskristallbildungsfähigkeit von Silberjodid ab -5 °C. Unter Laborbedingungen ist stets eine Wirksamkeit ermittelt worden. Bei Versuchen unter realen Bedingungen schwankt die effektive Temperatur ab der das Silberjodid Eiskristalle bildet. Das standardisierte Vorgehen bei der Wolkenimpfung dient daher der Vermeidung von Abweichungen bei der Ermittlung der Effektivität von Silberjodid.
In dem vorliegenden Beitrag wird der aktuelle Trend, Payas-you-live-Systeme (PAYL) in Verbindung mit Krankenversicherungen anzubieten, analysiert. PAYL-Systeme bedeutet konkret die kontinuierliche Erfassung von Gesundheitsdaten mithilfe technischer Geräte und Übermittlung dieser Daten an Versicherungen sowie die Auszahlung von Boni für erreichte Fitnessziele. Zunächst wird eine Definition von PAYL-Systemen dargelegt, dann werden die technischen Rahmenbedingungen erläutert, schließlich werden die Auswirkungen dieser soziotechnischen Systeme näher beleuchtet. Dies geschieht auf Grundlage unserer empirischen Untersuchung. Die drei identifizierten Hauptkonflikte betreffen die Genese von PAYL, seine Auswirkungen auf den Wert der Datensouveränität besonders für Versicherte und die Schwierigkeit, für den Anspruch auf Prävention und Kostenersparnis durch PAYL Evidenz zu erzeugen. Diese Konflikte werden diskutiert, um sowohl die direkten wie auch indirekten Auswirkungen der Digitalisierung und der Ökonomisierung des Sozialen durch PAYL zu beleuchten.
Da die Anforderungen an ein in der Autotür verbautes Türschloss aufgrund Unfallverhütung stetig steigen, muss auch der Schließbügel an der Karosseriesäule weiterentwickelt werden. Die Konstruktion und Entwicklung ist bisher sehr
kosten- und zeitintensiv. Daher soll parallel zur momentanen Abzugsprüfung durch den Zugversuch, die Simulation dieser Prüfung aufgebaut werden. Im Rahmen dieser Forschungsarbeit wird aufgezeigt, auf welche äußeren Einflussfaktoren besonderen Wert gelegt werden muss und wie detailliert die Simulation aufgebaut sein muss um ein gutes Ergebnis zu bekommen.
This study is aimed at valuing two companies in the IT services industry with different valuation approaches. Therefore, the preconditions for an accurate and meaningful business value as well as the procedure, strengths and limitations of these approaches are examined. Additionally, the accuracy of the results is determined through comparison of valuation estimates with their corresponding stock prices occurring within the three months following the business valuations.
Furthermore, it is examined if one valuation approach is superior in terms of accuracy. Finally, to verify the quality and explanatory power of the valuation results, they are compared with the outcomes of the study on the information content of equity analyst reports by Paul Asquith, Michael B. Mikhail and Andrea S. Au. The results of the business valuations show that within the three-month period, no price target was exactly achieved by the corresponding stock prices.
Furthermore, no valuation approach could be determined that is significantly more accurate than the others. It can be concluded that despite some limitations in the explanatory power of the valuations, the average percentage approximations of Mastercard’s and Visa’s stock prices to target prices were only slightly below those of the comparative study. In view of the fact that the research capacities and experience behind these business valuations are significantly lower than those of the top analysts in the comparative study, the results are considered consistent with the outcomes of the study on the information content of equity analyst reports.
Using 15N‐Ammonium to Characterise and Map Potassium Binding Sites in Proteins by NMR Spectroscopy
(2014)
Die Firma XYZ benötigt einen neu entwickelten Tragarm für die folgende Generation der Schweißzange. Die Konzeption und Entwicklung des Tragarms findet unter den Gesichtspunkten der Fertigungs- und Montagekosten, sowie Nutzerfreundlichkeit und Design statt. Die Nutzerfreundlichkeit und das Design wird mit Hilfe des aktuellen Tragarms und einer Benchmarkanalyse optimiert. Die Benchmarkanalyse zeigt dabei die unterschiedlichen Ansätze der am Markt existierenden Produkte. Die Bewertung der Konzepte findet mit Hilfe einer Nutzwertanalyse statt. Durch die gewichteten Ergebnisse und Interviews mit den Projektbetreuern können Schwachstellen aufgedeckt und weitere Optimierungsmöglichkeiten gefunden werden. Die Konstruktion wird mit analytischen Methoden zur Berechnung und Auslegung ergänzt. Das Ergebnis ist ein Tragarm, dessen Reichweite und Arbeitsraum den Kundenbedürfnissen entspricht. Unter Berücksichtigung der Tragfähigkeit, Kippsicherheit und Nutzerfreundlichkeit weist der Tragarm ein eigenständiges Design mit Kippmechanismus auf, welches eine stufenlose Anpassung des Arbeitsraumes ermöglicht.
Biomedizinische Statistik
(2024)
Die klassische konfirmatorische Statistik, auch frequentistische Statistik genannt, setzt voraus, dass man theoretisch unendlich viele Stichproben ziehen kann, und dass dann die aus den Stichproben berechnete Prüf- oder Testgröße unter der Nullhypothese H0 eine bestimmte Verteilung annimmt. Meistens sind die Testgrößen so konstruiert, dass bei Ziehung der Stichproben aus immer derselben Grundgesamtheit (es gilt die Nullhypothese H0) eine Verteilung der Testgröße um den Wert null herum entsteht, z.B. in Form einer Glockenkurve, d.h., kleine Werte überwiegen. Große Werte der Prüf- oder Testgröße kommen mit geringer Wahrscheinlichkeit vor und signalisieren einen möglichen Ausnahmefall. Statt anzunehmen, dass einer der seltenen Fälle einer großen Prüfgröße eingetroffen ist, nimmt man lieber an, dass sich die Grundgesamtheiten unterscheiden (Alternativhypothese HA).
Vergleicht man ein Automatisierungssystem mit dem menschlichen Körper, dann sind die Rechner (PC, SPS, Mikro-Controller) das Gehirn, die Signalleitungen die Nervenbahnen, die Sensoren die Augen und Ohren, die Aktoren die Muskeln, die Starkstromleitungen die Adern. Alle Teile sind wichtig und müssen zueinander passen.
1. Einführung 1.1 Historie 1.2 Rechneraufbau 1.3 Speicheradressen 1.4 Dualzahlen 1.5 Datentypen hardwareseitig 1.6 Datentypen softwareseitig 1.7 Softwareschichten 1.8 Gleichungen und Anweisungen
2.Einführung in C 2.1 Compile - Link - Run 2.2 Geradeausprogramm 2.3 Grunddatentypen 2.4 Ausdrücke, Wertzuweisungen 2.5 Operatoren 2.6 Standardfunktionen 2.7 Blöcke, Verzweigungen 2.8 Schleifen (while, for) 2.9 Matrizen und Strukturen 2.10 Aufzählungstypen, Typdefinitionen 2.11 Zeiger 2.12 Funktionen 2.13 Datenfiles 2.14 Zeichenkettenfunktionen (alt) 2.15 Speicherklasse, Initialisierung, Typumwandlungen
3. C++ mit MFC 3.1 Klassen 3.2 Aufbau einer Klasse 3.3 Beispiel Klasse CNurEineZahl 3.4 Basiswissen C++
4. Einführung in Java 4.1 Grundlagen von Java 4.2 Beispiel Ticketautomat 4.3 Beispiel Sinuskurve 4.4 Numerische Lösung von DGLs
Mathematik 2 für MEB/MM
(2018)
Vektorrechnung: Darstellung von Vektoren, Komponenten, Einheitsvektor, Addition, Subtraktion, Projektion, Skalarprodukt, Kreuzprodukt, Geraden, Ebenen Lineare Algebra: Darstellung, Rechnen mit Matrizen und Vektoren, Drehmatrix, lineare Gleichungssysteme (Eliminationsverfahren GAUSS oder GAUSS-JORDAN, inverse Matrix, über- und unterbestimmte Systeme), Determinanten (Rang einer Matrix, SARRUSsche Regel, CRAMERsche Regel), Eigenwerte und Eigenvektoren einer quadratischen Matrix
Fourier-Reihen: (Fourier-Reihe, reell, komplex, beliebige Periode, punktweise Funktion), Wellen (zeitliche und räumliche Ausbreitung von Wellen, Amplitude, Frequenz, Phase)
Differentialrechnung für Funktionen von mehreren Variablen: graphische Darstellung, skalare und Vektorfelder, partielle Ableitung, Differenzial, Gradient, Kettenregeln, Fehlerfortpflanzung
Integralrechnung für Funktionen von mehreren Variablen: konstante Grenzen, Produktzerlegung, Koordinatensysteme, Polarkoordinaten, Zylinderkoordinaten, Kugelkoordinaten, Trägheitsmomente, variable Grenzen
Gewöhnliche Differentialgleichungen: Klassifikation, Anfangswerte bzw. Randbedingungen, Trennung der Veränderlichen, Variation der Konstanten, DGL mit konstanten Koeffizienten, e-Ansatz, homogene, inhomogene DGL, charakteristische Gleichung, inhomogener Lösungen, Systeme linearer DGL Laplace-Transformation: Eigenschaften, Lösung einer DGL, Korrespondenztabellen, Partialbruchzerlegung, Rücktransformation, Übertragungsfunktion
Übungsbeispiele, Beispielklausur
Einführung (Beispiel Destille)
1. RI-Diagramme ( Kennbuchstaben, Symbole, Beispiele)
2. Einführung in die Steuerung (Ablaufsteuerung, Graphen, Befehle)
3. Einführung in die Regelung 3.1. Regelkreis (Blockschaltbild, Regelstrecke, Regler, Rückführung) 3.2. 2-Punkt-Regler, Hysterese 3.3. 3-Punkt-Regler, Toleranzbereich 3.4. Regelschaltungen ( Einfachregelkreis, Aufschaltung, Kaskade, Mehrgrößenregelung) 3.5. Regelaufgaben
4. Bauteile eines Regelkreises 4.1. Messwerterfassung ( Sensoren, Messumformer, Bus, Trennverstärker) 4.2. Messwertaufzeichnung 4.3. Signalverarbeitung ( Regler, µ-Controller, SPS (speicherprogrammierte Steuerung), PC) 4.4. Aktoren ( Ventil, Klappe, Motor, Pumpe, Verdichter, Stellungsregler, S- und K-Algorithmus) 4.5. Regelstrecken ( 4 Grundtypen PT1, PTn, I, Itn)
5. Steuerung mit SPS 5.1. Einführung (Aufbau, Programmverarbeitung) 5.2. FUP-Programmierung (Logik, Flipflop, Timer, Taktkette, Melde-, Ausgabeteil, OB1) 5.3 Impuls, Zähler, Betriebsartenteil
6. Übertragungsglieder (Laplace-Transformation, Übertragungsfunktion, Ortskurve, Bode-Diagramm) 6.1. P-Glied (Verstärkung, Linearisierung) 6.2. PT1-Glied (DGL, Antwort, Identifikation) DT1-Glied (DGL, Antwort, Identifikation) I-Glied (DGL, Antwort, Identifikation) 6.3. Zusammengesetzte Übertragungsglieder PTn-Glied (DGL, Antwort, Identifikation) ITn-Glied (DGL, Antwort, Identifikation)
7. Kontinuierliche Regler 7.1. P-Regler(Regelabweichung, Proportionalbereich) 7.2. PID-Regler, PIDT1-Regler (DGL, Parameter) 7.3. Reglerauswahl, -einstellung (Ziegler-Nichols, Chien u.a.)
Anhang: Übungsblätter 1 + 2, Dictionary
NASSS-CAT-D: Leitfaden zum Umgang mit Komplexität in Technologieprojekten im Gesundheitswesen
(2022)
Deutsche Version eines evidenzbasierten Leitfadens, der anhand einer systematischen Literaturrecherche und umfassender Primärforschung entwickelt wurde. Primäre Zielsetzung ist eine strukturelle Hilfestellung bei der Planung und Umsetzung von technikbasierten Projekten im Gesundheits- oder Sozialwesen.
Artificial First Responder
(2022)
In the course of researching a bellows to encapsulation the mechanical unit of a moving active implant, two photopolymer resins were calibrated for further investigation as part of this research. This has been done using a masked stereolithography (MSLA) printer, cleaning steps followed by curing. The resins were one biocompatible and the other with special flexibility. The evaluation of the printing was carried out using a validation matrix for SLA printing processes. The time required for the process steps had been observed as well. Both resins were calibrated with respect to their exposure time and the process chain was evaluated. The results are meaningful, but additional factors had been identified that need to be considered too.
Open Educational Resources (OER) in der Hochschullehre - Anwendungsfall Informationssicherheit
(2016)
Das Ziel dieser Arbeit ist es, die Chancen von Open Educational Resources (OER) im Bereich Informationssicherheit festzustellen und zu fördern. Dabei liegt der Hauptfokus auf Bildungsmaterialien für die Hochschullehre. Um dieses Ziel zu erreichen, wird eine analytische Bestandsaufnahme der aktuellen Quellenlage von Materialien der Informationssicherheit durchgeführt. Die Ergebnisse werden in einer Datenbank festgehalten und theoretisch ausgewertet. Dies zeigt, dass aktuell nur wenige OER im Bereich Informationssicherheit verfügbar sind. Es stehen jedoch vielseitige Ausgangsmaterialien zur Verfügung. Um diese verarbeiten zu können, wird ein Handbuch für OER-Ersteller erarbeitet. Dieses bietet didaktische und lizenzrechtliche Hinweise für die OER-Erstellung. Als Beispiel zur Umsetzung dient das erstellte OER "Risikomanagement in der Informationssicherheit - Risikoidentifikation". Abschließend evaluiert diese Arbeit in theoretischer Form eine Möglichkeit, studentische Arbeiten unter einer freien Lizenz zu veröffentlichen.
Differences in the perception and their effects on the implementation of organizational agility
(2021)
This thesis paper investigates the differences in organizational agility implementation and links practical approaches to complex theory. Several agile transformations have been studied to provide an overview of the common guidelines that foster agile working. In alignment with the ambivalence of agility, the results show that a symbiotic mixture of bottom- up and top-down features in the application is required. Especially in traditional organizations, where hierarchical structures prevail, the practical implementation requires the approval of managers and the active involvement of employees to be successful. Additionally, companies cannot apply a uniform approach to achieving agile but must alter practices to fit their specific needs. Consequently, this paper can be particularly beneficial to companies attempting an agile change.
In der vorliegenden Masterarbeit wurden verschiedene Ansteuerungsstrategien für den Betrieb von dreiphasigen Active-Neutral-Point-Clamped- (ANPC) Mittelspannungs-Netzumrichtern mit Siliziumkarbid (SiC) Halbleiterschaltelementen untersucht. Durch die Vielzahl an aktiven Schaltelementen können bei der ANPC-Topologie zur Modellierung des gewünschten Ausgangssignals zahlreiche unterschiedliche Ansteuerungsstrategien eingesetzt werden. Je nach gewählter Ansteuerungsstrategie können so unter anderem die Faktoren Schalt- und Durchlassverluste, Wirkungsgrad, Verlustverteilung, Schalter- und Ausgangsschaltfrequenz, der Oberschwingungsanteil des Ausgangssignals, sowie die maximale Spannungsbelastung der Halbleiter beeinflusst werden.
Neben der elektrotechnischen Beschreibung der aktuell eingesetzten Umrichter-Technologien wurden in dieser Arbeit primär aus aktuellen Veröffentlichungen und Dissertationen verschiedene Möglichkeiten für die Ansteuerung von ANPC-Umrichter zusammengetragen und insgesamt sieben Sinus-Pulsweiten-Modulationsstrategien (S-PWM) im Detail untersucht. Hierbei wurde für jede vorgestellte Modulationsstrategie das Grundfunktionsprinzip aufgezeigt und analysiert, sowie die sich daraus ergebenden Vor- und Nachteile herausgearbeitet.
Anschließend wurden alle vorgestellten S-PWM-Strategien in der Schaltungssimulationssoftware PLECS implementiert und diese in verschiedenen Betriebszuständen simuliert. Die Simulation ergab, dass sich bei der ANPC-ALD-Strategie eine bestmögliche Verlustverteilung zwischen den Halbleiterelementen einstellt, bei der ANPC-OOZS-Strategie die geringsten Durchlassverluste entstehen und bei den Strategien ANPC-DF, -12, -R2:1 und -SSLD im Bereich der Nulldurchgänge des Ausgangssignals an den inneren Halbleitern kurzzeitige kritische Überspannungen auftreten. Bei den Strategien ANPC-11-Sync, -ALD und -OOZS treten dagegen keine Überspannungen an den Halbleitern auf.
Ausgehend von diesen Simulationsergebnissen wurden die Strategien ANPC-DF, -ALD und -OOZS für den potentiellen Einsatz in Mittelspannungsumrichtern ausgewählt, auf einem FPGA-Board implementiert und damit eine geeignete Niederspannungstestplattform in Betrieb genommen. Durch praktische Messungen auf dieser Testplattform konnten die Simulationsergebnisse in einem ersten Schritt verifiziert werden. Sowohl das erstellte Simulationsmodell als auch die in Betrieb genommene Testplattform können somit zukünftig für weitere Untersuchungen im Bereich der ANPC-Umrichter-Ansteuerungsstrategien eingesetzt werden.
Bei dem seit 2019 auf dem Markt befindlichen Card-Mailing-System MAILMASTER der Firma Atlantic Zeiser GmbH, handelt es sich um eine Kleinserienmaschine zur Applizierung von Kunststoffkarten auf Briefen. Nach den ersten Kundeninstallationen soll nun die Reduktion von Montage- und Fertigungskosten erfolgen. Zur Identifizierung von Einsparpotential und bei der Ausarbeitung kostengünstigerer Alternativen werden diverse Methoden des Lean Managements genutzt.
Das Streben des Menschen nach persönlichem Wohlbefinden steigt mit dem Wohlstand – die aktuelle Pandemiezeit wirkt hier stark beschleunigend. Den Traum von einem eigenen Wellnessbereich im privaten Heim erfüllen sich immer mehr Privatpersonen.
In der vorliegenden Arbeit wurde der Geschäftsprozess der Saunafertigung untersucht. Dabei lag der Fokus der Analyse auf den einzelnen Prozessschritten des Fertigungsprozesses hinsichtlich Zeit, Material, Maschine und Mensch. Die herausgearbeiteten Optimierungsansätze orientieren sich dabei an dem magischen Dreieck und der Digitalisierung.
Es zeigte sich, dass viele Prozessschritte noch händisch und in Papierform durchgeführt werden. Der technisch bereits mögliche Einsatz von digitalbasierten Schritten ist nicht in vollem Umfang ausgeschöpft. Für eine effiziente zukunftsorientierte Prozessgestaltung ist die weitere Digitalisierung unerlässlich.
In diesem Vortrag werde ich auf die Programmierumgebungen (ROS) und Schnittstellen (keras/Tensorflow) eingehen, die es ermöglichen Roboter mit Hilfe von maschinellem Lernen zu trainieren. Dabei werde ich insbesondere die Möglichkeiten vorstellen, wie man einen Roboter in der Simulation (gazebo) trainieren kann, um die trainierten Modelle auf echte Roboter zu übertragen. Anhand von praktischen Beispielen mit mobilen Robotern und Greifarmen werden die Konzepte des Reinforcement Learnings, Active Learnings, Transfer Learnings und der Objekterkennung demonstriert. Das Testszenario besteht aus einem Holz-Labyrinth und einem Turtlebot Roboter, der mit Laser Range Scanner und einer 2D-Kamera ausgestattet ist. Dabei soll der Roboter lernen, autonom den Weg zur angegebenen Zielposition zu planen ohne dabei gegen ein Hindernis zu fahren. Es wird hierbei untersucht in wie weit die trainierten Modelle in leicht abgeänderten Szenarien funktionsfähig bleiben.
Die vorliegende Masterarbeit analysiert die Problematiken effektiver grafischer Repräsentationen in digitalen Informationssystemen, die mit besonders hoherund dynamischer Datendichte und Datenquellen einhergehen. Anschließend an die Analyse der Problematiken erarbeitet der Autor dieser Forschungsarbeit ein konzeptuelles Modell zur Bewältigung der geschilderten Problematiken, auf Basis von semantisch beschriebenen, wiederverwendbaren grafischen Visualisierungselementen und den ebenfalls semantisch beschriebenen in die Visualisierung zu überführenden Daten. Besonders hervorzuhebende Erkenntnisse dieser Masterarbeit sind die Identifikation von Qualitätskriterien zur Zielführung einer effektiven Visualisierung gemäß der visuellenWahrnehmung des menschlichen kognitiven Systems, die Notwendigkeit zur Erweiterung der Vokabularmenge der schema.org-Ontologie zur Anwendung der identifizieren Qualitätskriterien und das Auffinden geeigneter Visualisierungselemente sowie das Zuordnen der Daten zu entsprechenden Visualisierungselementen über den Aufbau und Vergleich einer Baumstruktur für sowohl die Daten als auch die der Visualisierungselemente. Diese Forschungsarbeit ist von besonderer Relevanz für Entscheider, Projektmanager und Softwareentwickler, die digitale Informationssysteme mit einer hohen Anzahl an heterogenen Datensätzen und Datenquellen entwickeln.
Die vorliegende Arbeit gibt industriellen Entscheidern, Softwareentwicklern, Geräteherstellern und Standardisierungsgremien einen Überblick über die Problematiken bei der Entwicklung plattformübergreifender Anwendungen zum Abruf, zur Visualisierung und zur Modifizierung heterogener Informationen von unterschiedlichen Geräten über standardisierte Kommunikationstechnologien unter mit Einbezug etablierter Geräteintegrationstechnologien. Zum Aufzeigen der Problematiken wurden exemplarisch die Technologien Open Platform Communications Unified Architecture für den standardisierten Kommunikationsaustausch und Field Device Tool als etablierte Geräteintegrationstechnologie zur Umsetzung der prototypischen Implementierung verwendet. Die wichtigsten Erkenntnisse dieser Arbeit sind neben der Notwendigkeit eines auf plattformübergreifenden Plattformen lauffähigen Toolkits, die Erfordernis zur dynamischen Visualisierung der Daten asymmetrischen Typs, die aufgrund der Informationstypenvielfalt des Open Platform Communications Unified Architecture Standards bestehen. Weiterhin zeigen die Ergebnisse dieser Arbeit die Möglichkeit zur Integration etablierter Geräteintegrationsstandards, sofern diese Integration von den Standardisierungsgremien der etablierten Technologien korrekt realisiert wurde.
Einfluss des Klimawandels auf die deutsche Weinindustrie - Zukunftsanalyse für die deutschen Winzer
(2022)
Die vorliegende Bachelorarbeit gibt einen Überblick über die Auswirkungen des Klimawandels auf die deutsche Weinindustrie. Das Ziel war es, die zukünftigen Risiken wie auch Chancen für die deutschen Winzer zu ermitteln und anhand der Ergebnisse Handlungsempfehlungen für die zukünftige Weinindustrie zu entwickeln. Um die Forschungsfragen zu beantworten, wurde eine Szenario- Analyse durchgeführt, welche sich an den deutschen Winzern orientiert. Dabei wurden die Einflüsse betrachtet und anhand dieser wurden unterschiedliche Zukunftsprojektionen erstellt. Die Szenario-Analyse zeigte, dass die deutsche Weinindustrie bei den aktuellen Entwicklungen des Klimawandels deutlich als Gewinner hervorgeht. Dennoch müssen Winzer und andere Akteure der Wein- industrie heute bereits wichtige Entscheidungen treffen und sich den Bedingun- gen anpassen um in der Zukunft die entstehen Chancen nutzen zu können.
Applications for the Internet of Things are becoming increasingly popular. Due to the large amount of available context data, such applications can be used effectively in many domains. By interlinking these data and analyzing them, it is possible to gather a lot of knowledge about a user. Therefore, these applications pose a threat to privacy. In this paper, we illustrate this threat by looking at a real-world application scenario. Current state of the art focuses on privacy mechanisms either for Smart Things or for big data processing systems. However, our studies show that for a comprehensive privacy protection a holistic view on these applications is required. Therefore, we describe how to combine two promising privacy approaches from both categories, namely AVARE and PATRON. Evaluation results confirm the thereby achieved synergy effects.
Plötzliches Unvermögen ist strategisches Thema und Meilenstein auf der Euro-NCAP Roadmap für das Jahr 2025. Diese Arbeit widmet sich der Frage nach der Umsetzbarkeit und rechtlichen Rahmenbedingungen kamerabasierter Innenraumüberwachung im Hinblick auf die Erkennung plötzlichen Unvermögens durch Myokardinfarkt. Nach einleitender Definition des Terminus „Plötzliches Unvermögen/Sudden Sickness“ erfolgt eine Übersicht der NCAP Anforderungen sowie ein Überblick über den aktuellen Forschungs- und Entwicklungsstand. Im Folgenden wird auf Anforderungen aus Verbraucher- und Datenschutzsicht eingegangen. Schwerpunkt dieses Papers bildet die Erstellung, Umsetzung und Bewertung von Use Cases zur Erkennung einer Sudden Sickness durch Myokardinfarkt. Abschließend werden offene Forschungsfragen erläutert. Ein experimentelles Beispielsystem wurde exemplarisch umgesetzt und evaluiert. Die wesentlichen Erkenntnisse dieses Prototypen waren, dass besonderer Fokus/Aufmerksamkeit gelegt werden muss auf die Leistungsfähigkeit der Zielhardware, insbesondere im Hinblick auf Echtzeitanforderungen.
Digital twin as a service : Ressourcenmanagement mit Energiedaten aus cyber-physischen Systemen
(2019)
Die Energiewende führt zu einer Paradigmenänderung. Der Zeitpunkt der Energieabnahme wird sich zunehmend an dem der Energieerzeugung orientierten. Die Steuerung des Energiebedarfs kann durch energieorientierte Produktionsplanung gesteigert werden. Dies erfordert eine Vorhersage des Energiebedarfs. Hierfür wird ein System entwickelt, das eine Modellierung mittels maschinellen Lernens nutzt. Die Datenbasis wird durch eine Vorgehensweise zur Abstrahierung von Fertigungsmaschinen erzeugt. Das System besteht aus gruppierten Microservices, es berücksichtigt die unterschiedlichen Anforderungen der Modelle an die Infrastruktur. Die Modelle sind in digitalen Zwillingen integriert, die als Dienst genutzt werden. Hierdurch ist eine effiziente Adaption von ˜Äderungen an Fertigungsmaschine oder Modell-Methodik möglich. Eine exemplarische Anwendung der Abstraktionsmethode und der Modellierung mittels neuronalen Netzes demonstrieren die Umsetzbarkeit.
Thermal spraying is one of the most important and most efficient methods for coating surfaces. The company "Hugo Kern und Liebers" uses atmospheric plasma spraying for various coating processes such as the metallic coating of functional surfaces to optimize electrical conductivity. In order to gain further experience in the field of thermal spraying and to get a better overview, the processes of thermal spraying were compared in this project. Therefore, in addition to the information on atmospheric plasma spraying, the properties of other processes were collected through research. An Excel table of the process properties provides a good overview and helps with comparisons. The aim of this research work was the differentiation of the processes from each other, to identify advantages and disadvantages and to define areas of application.
Das Ziel dieser Arbeit ist es, den Einfluss von Apps und virtuellen Welten auf die Akzeptanz und die Motivation von Läufern zu ermitteln. Dafür wird der Begriff der Motivation anhand von Motivationsmodellen erklärt und auf den Laufsport angewendet. Durch den praktischen Teil der Arbeit, wurde mittels einer Studie herausgefunden wie Probanden auf virtuelle Welten während einer Laufeinheit auf einem Laufband reagieren und diese bewerten. Die Grundlage und Idee des Themas dieser Bachelorarbeit, war unter anderem eine virtuelle Laufapp. 2009 gab es an der Hochschule Furtwangen die Projektgruppe „Virtual Marathon“. Unter der Leitung von Prof. Dr. Dittler, war das Ziel des Projektes eine virtuelle Welt für den Laufsport zu erschaffen. Dafür filmte die Gruppe verschiedene Laufstrecken ab und projizierte diese Videos anschließend auf eine Leinwand, vor welcher ein Laufband installiert wurde. Heutige Apps nutzen dieselbe Technik, nur auf aktuellerem Stand und mit einer Vielzahl von mehr Strecken.
Funktionsweise und Vergleich von Methoden zur Generierung von Punktwolken in einer Versandstation
(2023)
In dieser wissenschaftlichen Publikation werden verschiedene Möglichkeiten alternativer Energieträger vor allem im Automobilbereich vorgestellt und miteinander bezüglich Schadstoffausstoß, Speicherung, Gesamtwirkungsgrad und Infrastruktur verglichen. Aufgrund des hohen Potenzials von Methan als alternativem Energieträger wird genauer auf die Modifizierung des Verbrennungsmotors bei Verwendung von Methan als Kraftstoff eingegangen. Da für die Gewinnung der meisten hier vorgestellten Energieträger elektrische Energie benötigt wird, spielt die Energiequelle eine große Rolle für die Zukunft des automotiven Antriebs.
Weite Bereiche der Softwareentwicklung werden
bereits heute durch diverse Werkzeuge unterstützt und teilweise automatisiert. Eine Verbesserung dieser Automatisierung soll dazu führen, dass die Entwicklung schneller und kosteneffizienter wird und eine höhere Qualität aufweist. Durch stetig steigende Forschungsarbeit im Bereich der künstlichen Intelligenz kann auch die werkzeugunterstützte Softwareentwicklung (engl. computer-aided software engineering, CASE) profitieren, indem bereits gängige Automatisierungsschritte durch den Einsatz neuer Methoden stark verbessert werden. Auch können sich durch diese Forschung neue Möglichkeiten ergeben, weitere Aufgaben während der Entwicklung zu automatisieren. Diese Verbesserungen und neuen Möglichkeiten sollen in dieser Ausarbeitung erklärt und gegebenenfalls genauer untersucht werden. In Tests, die im Rahmen dieser Ausarbeitung durchgeführt wurden, hat sich das Potential einiger Werkzeuge gezeigt, jedoch auch, dass sich die meisten Werkzeuge auf die KI-gestützte Verbesserung bereits verbreiteterWerkzeuge beschränken und damit nur wenig zu einer Automatisierung des kompletten Prozesses beitragen. Außerdem hat sich mit dem sog. Data Poisoning neues Gefahrenpotential herausgestellt.
Im Rahmen dieser Master-Thesis wurden Verfahren zum Transfer eines Arrays kleiner Dies (unverkapselte Chips) mit einer Kantenlänge von 250 μm bis 300 μm untersucht. Die Dies sollten hierbei von UV-lichtempfindlicher Folie selektiv abgehoben und auf einem Zielsubstrat abgesetzt werden. Als Verfahren wurde die Stempeltechnologie gewählt. Zum Aufnehmen der Dies wurden Stempel aus Silikon gegossen. Als Substrate zum Absetzen der Dies wurden Gläser mit Zucker beschichtet. Zur Überprüfung des Verfahrens wurden Zugversuche durchgeführt. Die senkrechte Abzugskraft der verwendeten Folie und der Silikonstempel wurde ermittelt. Durch Abzugstests der Folie im belichteten und unbelichteten Zustand wurden die genutzten Belichtungsprozesse überprüft. Das Umsetzen wurde mit gesägten Stücken eines Siliziumwafers durchgeführt. Es konnte nachgewiesen werden, dass das Umsetzen mit Silikonstempeln möglich ist und die erzeugten Kräfte hierfür ausreichen. Die Herstellung und Vorbereitung der gesägten Siliziumwürfel erwies sich hierbei als kritischer Prozess, was die Reproduzierbarkeit der Umsetzung stark beeinträchtigt.
This paper deals with the constructive adaptation of an existing mechanical single-jet valve meter (valve meter driven only by a water jet) for the realisation of a digital system. For this purpose, an existing mechanical single-jet valve meter system is constructively adapted in such a way that the existing mechanical counter can be replaced by an existing digital counter. Subsequently, the measuring behaviour of the newly created meter system is examined on a testing bench
Die Vielfalt von heutzutage auftretenden Datenstrukturen schafft Bedarf für individu-
ell abgestimmte Analyseplattformen. Dabei benötigte Ressourcen sind vom jeweiligen
Anwendungsfall abhängig. Diese Arbeit diskutiert Broker für die Virtualisierung der
verarbeitenden Anwendungen, welche durch ein abstrahiertes Dashboard bedient wer-
den. Eine Domain Specific Language ermöglicht die Generierung eines Grundgerüsts
entsprechender Komponenten, die mit individueller Logik anzureichern sind. Die be-
schriebene Architektur bezieht sich zu großen Teilen auf den Umgang mit den flexiblen
Eingangsdaten von virtualisierten Verarbeitungsplattformen.
Hubert Burda Media ist ein international agierendes Medienunternehmen, das unter anderem in den Segmenten Woman, Luxury Lifestyle, Living und Food aktiv ist. Das Unternehmen befindet sich auf Expansionskurs und ist dabei bestrebt, neben dem Ausbau weiterer Geschäftsfelder (z.B. Digital), sein Wachstumspotenzial durch Internationalisierungsaktivitäten bestehender Zeitschriftentitel in anderen Märkten auszuschöpfen.
Die Koch- und Genusszeitschrift SAVEURS wird vom Burda Verlag Editions Hubert Burda Media in Paris publiziert und wurde bereits in Russland und Deutschland lanciert. Nach der Einführung der Zeitschrift auf anderen Märkten außerhalb des Heimatmarktes, soll das Potential für eine erfolgreiche Einführung auf dem brasilianischen Markt untersucht werden.
Die derzeitige Kühlkreisregelung einer bestehenden Drehmaschinenbaureihe, welche ein kontinuierliches Erwärmen der Werkzeugspindel während der Bearbeitung nicht verhindern kann, wurde im Rahmen dieser Projektarbeit optimiert. Hierbei verkürzt die neue Kühlkreisregelung der Werkzeugspindel sowohl die Warmlaufphase und gewährleistet gleichzeitig eine gleichbleibende Temperatur der Komponenten bei der Bearbeitung der Werkstücke. Dies sorgt für eine konstante Spitzenhöhe der Spindel sowie des Reitstockes über mehrere Betriebsstunden hinweg. Auch die Kühlung des Hydrauliköls wurde optimiert, sodass dieses deutlich schneller als bisher auf Betriebstemperatur erwärmt und anschließend konstant gehalten werden kann.
Das vornehmlich visuell erscheinende Web und seine Inhalte stellen, sofern Web Accessability, die ausnahmslose Barrierefreiheit im Web, nicht priorisiert wird, für Blinde und Sehbehinderte Hürden dar und schließt sie von bedeutenden Inhalten des Webs aus.
In dieser Bachelorthesis soll verdeutlicht werden, dass Maßnahmen für Web Accessability jeglichen Nutzergruppen ausschließlich Vorteile darbieten und ohne außergewöhnliche Aufwände umzusetzen sind.
Um dies zu erreichen, werden Handlungsempfehlungen von Analysen der Ist-Zustände verschiedener Typen von Online Medien, theoretischen Konzepten zur Einhaltung von Web Accessability sowie eigenen Erhebungen abgeleitet.
Zudem wurden Gespräche mit betroffenen Nutzern im Blinden- und Sehbehindertenverein Südbaden e.V. geführt, um Einblicke in die Thematik zu erlangen, welche durch bloße Theorie und Analysen nicht in vollem Umfang ersichtlich sind.
Die Handlungsempfehlungen in der vorliegenden Bachelorarbeit stellen einen Leitfaden explizit für die Entwicklung von Online-Shops dar, um sehbehinderten und blinden Nutzern die für sie noch nicht vollends erreichbare Welt des e-Commerce adäquat zu erschließen.
Hierbei werden vor allem die notwendigsten Maßnahmen zum Abbau der folgenreichsten Barrieren für blinde und sehbehinderte Nutzer im Web herausgehoben: inhaltlich äquivalente Beschreibungen zu Grafiken, Bildern und Formularen, die Gliederung der Webseiten in Abschnitte sowie technische Maßnahmen zur Navigation der Webseite über Bildschirmleseprogramme.
Als rechtliche und ethische Grundlagen zu den in dieser Thesis erarbeiteten Empfehlungen werden allen voran die Barrierefreie-Informationstechnik-Verordnung (BITV) sowie die Web Content Accessability Guidelines der W3C (WCAG 2.0) herangezogen.