Refine
Year of publication
Document type
- Contribution to a Periodical (54)
- Bachelor Thesis (41)
- Article (peer-reviewed) (19)
- Working Paper (16)
- Other (12)
- Master's Thesis (9)
- Conference Proceeding (7)
- Report (5)
- Book (2)
- Academic Papers (2)
Language
- German (168) (remove)
Has full text
- Yes (168) (remove)
Keywords
- Umfrage (10)
- Maschinelles Lernen (4)
- Hochschulen (3)
- Künstliche Intelligenz (3)
- Mediennutzung (3)
- Blockchain (2)
- Computermathematik (2)
- Corporate Social Responsibility (2)
- Gesundheitswesen (2)
- Informationssicherheit (2)
Course of studies
- IBW - Internationale Betriebswirtschaft (22)
- APE - Advanced Precision Engineering (19)
- OMB - OnlineMedien (5)
- WIB - Wirtschaftsinformatik (4)
- BMP - Business Management and Psychology (3)
- BAM - Business Application Architectures (2)
- INM - Informatik (2)
- MIB - Medieninformatik (2)
- AIN - Allgemeine Informatik (1)
- BPT - Bio- und Prozess-Technologie (1)
Vonnegut vom General Electric Research hat zusammen mit Langmuir und Schäfer in 1947 die Eigenschaft von Silberjodid (AgI) Niederschläge wie Regen, Schnee, Eis auszulösen, untersucht. Hierfür werden die Gewitterwolken im frühen Entwicklungsstadium im Bereich der Aufwindzonen angeflogen. Bei einer Höhe zwischen ein und fünf Kilometer werden die AgI-Generatoren, die an den Flugzeugtragflächen angebracht sind, eingeschaltet. Die Generatoren verbrennen die Lösung, die als Komplex zusammen mit Wasser und Aceton im Behälter vorliegt. Der entstehende Silberjodid-Rauch löst einen Niederschlag in Form von Regen, Schnee oder Graupel aus. Die Gewitterwolke verliert dadurch die erforderliche Energie, um größere Hagelkörner zu bilden. Die Effektivität von Silberjodid-Kristallen zur Bildung von Eiskristallen und Niederschlägen wird auf die hexagonale Struktur zurückgeführt, wie sie auch die Eiskristalle in der Luft haben. Die optimale Menge, mit der die Wolken geimpft werden liegt bei 11 g pro Liter Lösung. Aufgrund der geringen Löslichkeit von Silberjodid in Wasser wird die Löslichkeit in Komplexen wie z.B. im AgI-KI-Wasser-Aceton-Gemisch gesteigert. Die Impfung der Gewitterwolken ist bei Aufwinden zwischen 3 m/s und 5 m/s, also im Frühstadium effektiv. Dabei spielt jedoch auch die Partikelgröße eine entscheidende Rolle. Monodisperse Partikel mit einem Durchmesser von 10 Nanometern sind bis zu Temperaturen von -17 °C und Partikel mit 100 Nanometer Durchmesser sind bei etwa -10 °C aktiv. Die Versuche belegen eine effektive Eiskristallbildungsfähigkeit von Silberjodid ab -5 °C. Unter Laborbedingungen ist stets eine Wirksamkeit ermittelt worden. Bei Versuchen unter realen Bedingungen schwankt die effektive Temperatur ab der das Silberjodid Eiskristalle bildet. Das standardisierte Vorgehen bei der Wolkenimpfung dient daher der Vermeidung von Abweichungen bei der Ermittlung der Effektivität von Silberjodid.
In dem vorliegenden Beitrag wird der aktuelle Trend, Payas-you-live-Systeme (PAYL) in Verbindung mit Krankenversicherungen anzubieten, analysiert. PAYL-Systeme bedeutet konkret die kontinuierliche Erfassung von Gesundheitsdaten mithilfe technischer Geräte und Übermittlung dieser Daten an Versicherungen sowie die Auszahlung von Boni für erreichte Fitnessziele. Zunächst wird eine Definition von PAYL-Systemen dargelegt, dann werden die technischen Rahmenbedingungen erläutert, schließlich werden die Auswirkungen dieser soziotechnischen Systeme näher beleuchtet. Dies geschieht auf Grundlage unserer empirischen Untersuchung. Die drei identifizierten Hauptkonflikte betreffen die Genese von PAYL, seine Auswirkungen auf den Wert der Datensouveränität besonders für Versicherte und die Schwierigkeit, für den Anspruch auf Prävention und Kostenersparnis durch PAYL Evidenz zu erzeugen. Diese Konflikte werden diskutiert, um sowohl die direkten wie auch indirekten Auswirkungen der Digitalisierung und der Ökonomisierung des Sozialen durch PAYL zu beleuchten.
Da die Anforderungen an ein in der Autotür verbautes Türschloss aufgrund Unfallverhütung stetig steigen, muss auch der Schließbügel an der Karosseriesäule weiterentwickelt werden. Die Konstruktion und Entwicklung ist bisher sehr
kosten- und zeitintensiv. Daher soll parallel zur momentanen Abzugsprüfung durch den Zugversuch, die Simulation dieser Prüfung aufgebaut werden. Im Rahmen dieser Forschungsarbeit wird aufgezeigt, auf welche äußeren Einflussfaktoren besonderen Wert gelegt werden muss und wie detailliert die Simulation aufgebaut sein muss um ein gutes Ergebnis zu bekommen.
This study is aimed at valuing two companies in the IT services industry with different valuation approaches. Therefore, the preconditions for an accurate and meaningful business value as well as the procedure, strengths and limitations of these approaches are examined. Additionally, the accuracy of the results is determined through comparison of valuation estimates with their corresponding stock prices occurring within the three months following the business valuations.
Furthermore, it is examined if one valuation approach is superior in terms of accuracy. Finally, to verify the quality and explanatory power of the valuation results, they are compared with the outcomes of the study on the information content of equity analyst reports by Paul Asquith, Michael B. Mikhail and Andrea S. Au. The results of the business valuations show that within the three-month period, no price target was exactly achieved by the corresponding stock prices.
Furthermore, no valuation approach could be determined that is significantly more accurate than the others. It can be concluded that despite some limitations in the explanatory power of the valuations, the average percentage approximations of Mastercard’s and Visa’s stock prices to target prices were only slightly below those of the comparative study. In view of the fact that the research capacities and experience behind these business valuations are significantly lower than those of the top analysts in the comparative study, the results are considered consistent with the outcomes of the study on the information content of equity analyst reports.
Using 15N‐Ammonium to Characterise and Map Potassium Binding Sites in Proteins by NMR Spectroscopy
(2014)
Die Firma XYZ benötigt einen neu entwickelten Tragarm für die folgende Generation der Schweißzange. Die Konzeption und Entwicklung des Tragarms findet unter den Gesichtspunkten der Fertigungs- und Montagekosten, sowie Nutzerfreundlichkeit und Design statt. Die Nutzerfreundlichkeit und das Design wird mit Hilfe des aktuellen Tragarms und einer Benchmarkanalyse optimiert. Die Benchmarkanalyse zeigt dabei die unterschiedlichen Ansätze der am Markt existierenden Produkte. Die Bewertung der Konzepte findet mit Hilfe einer Nutzwertanalyse statt. Durch die gewichteten Ergebnisse und Interviews mit den Projektbetreuern können Schwachstellen aufgedeckt und weitere Optimierungsmöglichkeiten gefunden werden. Die Konstruktion wird mit analytischen Methoden zur Berechnung und Auslegung ergänzt. Das Ergebnis ist ein Tragarm, dessen Reichweite und Arbeitsraum den Kundenbedürfnissen entspricht. Unter Berücksichtigung der Tragfähigkeit, Kippsicherheit und Nutzerfreundlichkeit weist der Tragarm ein eigenständiges Design mit Kippmechanismus auf, welches eine stufenlose Anpassung des Arbeitsraumes ermöglicht.
Biomedizinische Statistik
(2024)
Die klassische konfirmatorische Statistik, auch frequentistische Statistik genannt, setzt voraus, dass man theoretisch unendlich viele Stichproben ziehen kann, und dass dann die aus den Stichproben berechnete Prüf- oder Testgröße unter der Nullhypothese H0 eine bestimmte Verteilung annimmt. Meistens sind die Testgrößen so konstruiert, dass bei Ziehung der Stichproben aus immer derselben Grundgesamtheit (es gilt die Nullhypothese H0) eine Verteilung der Testgröße um den Wert null herum entsteht, z.B. in Form einer Glockenkurve, d.h., kleine Werte überwiegen. Große Werte der Prüf- oder Testgröße kommen mit geringer Wahrscheinlichkeit vor und signalisieren einen möglichen Ausnahmefall. Statt anzunehmen, dass einer der seltenen Fälle einer großen Prüfgröße eingetroffen ist, nimmt man lieber an, dass sich die Grundgesamtheiten unterscheiden (Alternativhypothese HA).
Vergleicht man ein Automatisierungssystem mit dem menschlichen Körper, dann sind die Rechner (PC, SPS, Mikro-Controller) das Gehirn, die Signalleitungen die Nervenbahnen, die Sensoren die Augen und Ohren, die Aktoren die Muskeln, die Starkstromleitungen die Adern. Alle Teile sind wichtig und müssen zueinander passen.
1. Einführung 1.1 Historie 1.2 Rechneraufbau 1.3 Speicheradressen 1.4 Dualzahlen 1.5 Datentypen hardwareseitig 1.6 Datentypen softwareseitig 1.7 Softwareschichten 1.8 Gleichungen und Anweisungen
2.Einführung in C 2.1 Compile - Link - Run 2.2 Geradeausprogramm 2.3 Grunddatentypen 2.4 Ausdrücke, Wertzuweisungen 2.5 Operatoren 2.6 Standardfunktionen 2.7 Blöcke, Verzweigungen 2.8 Schleifen (while, for) 2.9 Matrizen und Strukturen 2.10 Aufzählungstypen, Typdefinitionen 2.11 Zeiger 2.12 Funktionen 2.13 Datenfiles 2.14 Zeichenkettenfunktionen (alt) 2.15 Speicherklasse, Initialisierung, Typumwandlungen
3. C++ mit MFC 3.1 Klassen 3.2 Aufbau einer Klasse 3.3 Beispiel Klasse CNurEineZahl 3.4 Basiswissen C++
4. Einführung in Java 4.1 Grundlagen von Java 4.2 Beispiel Ticketautomat 4.3 Beispiel Sinuskurve 4.4 Numerische Lösung von DGLs
Mathematik 2 für MEB/MM
(2018)
Vektorrechnung: Darstellung von Vektoren, Komponenten, Einheitsvektor, Addition, Subtraktion, Projektion, Skalarprodukt, Kreuzprodukt, Geraden, Ebenen Lineare Algebra: Darstellung, Rechnen mit Matrizen und Vektoren, Drehmatrix, lineare Gleichungssysteme (Eliminationsverfahren GAUSS oder GAUSS-JORDAN, inverse Matrix, über- und unterbestimmte Systeme), Determinanten (Rang einer Matrix, SARRUSsche Regel, CRAMERsche Regel), Eigenwerte und Eigenvektoren einer quadratischen Matrix
Fourier-Reihen: (Fourier-Reihe, reell, komplex, beliebige Periode, punktweise Funktion), Wellen (zeitliche und räumliche Ausbreitung von Wellen, Amplitude, Frequenz, Phase)
Differentialrechnung für Funktionen von mehreren Variablen: graphische Darstellung, skalare und Vektorfelder, partielle Ableitung, Differenzial, Gradient, Kettenregeln, Fehlerfortpflanzung
Integralrechnung für Funktionen von mehreren Variablen: konstante Grenzen, Produktzerlegung, Koordinatensysteme, Polarkoordinaten, Zylinderkoordinaten, Kugelkoordinaten, Trägheitsmomente, variable Grenzen
Gewöhnliche Differentialgleichungen: Klassifikation, Anfangswerte bzw. Randbedingungen, Trennung der Veränderlichen, Variation der Konstanten, DGL mit konstanten Koeffizienten, e-Ansatz, homogene, inhomogene DGL, charakteristische Gleichung, inhomogener Lösungen, Systeme linearer DGL Laplace-Transformation: Eigenschaften, Lösung einer DGL, Korrespondenztabellen, Partialbruchzerlegung, Rücktransformation, Übertragungsfunktion
Übungsbeispiele, Beispielklausur
Einführung (Beispiel Destille)
1. RI-Diagramme ( Kennbuchstaben, Symbole, Beispiele)
2. Einführung in die Steuerung (Ablaufsteuerung, Graphen, Befehle)
3. Einführung in die Regelung 3.1. Regelkreis (Blockschaltbild, Regelstrecke, Regler, Rückführung) 3.2. 2-Punkt-Regler, Hysterese 3.3. 3-Punkt-Regler, Toleranzbereich 3.4. Regelschaltungen ( Einfachregelkreis, Aufschaltung, Kaskade, Mehrgrößenregelung) 3.5. Regelaufgaben
4. Bauteile eines Regelkreises 4.1. Messwerterfassung ( Sensoren, Messumformer, Bus, Trennverstärker) 4.2. Messwertaufzeichnung 4.3. Signalverarbeitung ( Regler, µ-Controller, SPS (speicherprogrammierte Steuerung), PC) 4.4. Aktoren ( Ventil, Klappe, Motor, Pumpe, Verdichter, Stellungsregler, S- und K-Algorithmus) 4.5. Regelstrecken ( 4 Grundtypen PT1, PTn, I, Itn)
5. Steuerung mit SPS 5.1. Einführung (Aufbau, Programmverarbeitung) 5.2. FUP-Programmierung (Logik, Flipflop, Timer, Taktkette, Melde-, Ausgabeteil, OB1) 5.3 Impuls, Zähler, Betriebsartenteil
6. Übertragungsglieder (Laplace-Transformation, Übertragungsfunktion, Ortskurve, Bode-Diagramm) 6.1. P-Glied (Verstärkung, Linearisierung) 6.2. PT1-Glied (DGL, Antwort, Identifikation) DT1-Glied (DGL, Antwort, Identifikation) I-Glied (DGL, Antwort, Identifikation) 6.3. Zusammengesetzte Übertragungsglieder PTn-Glied (DGL, Antwort, Identifikation) ITn-Glied (DGL, Antwort, Identifikation)
7. Kontinuierliche Regler 7.1. P-Regler(Regelabweichung, Proportionalbereich) 7.2. PID-Regler, PIDT1-Regler (DGL, Parameter) 7.3. Reglerauswahl, -einstellung (Ziegler-Nichols, Chien u.a.)
Anhang: Übungsblätter 1 + 2, Dictionary
NASSS-CAT-D: Leitfaden zum Umgang mit Komplexität in Technologieprojekten im Gesundheitswesen
(2022)
Deutsche Version eines evidenzbasierten Leitfadens, der anhand einer systematischen Literaturrecherche und umfassender Primärforschung entwickelt wurde. Primäre Zielsetzung ist eine strukturelle Hilfestellung bei der Planung und Umsetzung von technikbasierten Projekten im Gesundheits- oder Sozialwesen.
Artificial First Responder
(2022)