Stefan Bankler: Automatische Detektion von Kompressionsartefakten in CGM-Signalen Präsentation
Damit Diabetespatienten ihre Therapie anpassen und den Therapieerfolg bewerten können, benötigen sie verlässliche Informationen über ihre Blutglukosekonzentration. Seit vielen Jahren ist die Standardmessmethode dafür die Bestimmung der (normalerweise aus dem Finger entnommenen) Kapillarblutkonzentration mittels Streifenmessgeräten. Der große Nachteil von Glukosemessungen mittels Streifenmessgeräten ist, dass die Glukosekonzentration nur zu sehr wenigen Zeitpunkten bekannt ist, da typischerweise täglich nur 3–6 Messungen durchgeführt werden (da unkomfortabel und leicht schmerzhaft). Falls also zwischendurch sehr hohe Konzentrationen auftreten, bleibt dies mitunter von Patienten völlig unbemerkt. Eine Verbesserung diesbezüglich stellen sogenannte kontinuierliche Glukosesensoren (CGM) dar, welche unter Typ-1-Diabetikern immer populärer werden. Diese sind in der Lage zeitlich hochaufgelöste Informationen über die Glukoseverläufe zu liefern (ein Messwert alle 1 bis 10 Minuten).
Die zeitlich hochaufgelösten Glukoseverläufe liefern eine Fülle an zusätzlichen Informationen. So kann beispielsweise mittels der Trendinformation eine kurzfristige Vorhersage von zukünftigen Glukosekonzentrationen gemacht werden (bis ca. 40 Minuten in die Zukunft) und dadurch gefährliche Hypoglykämien (das sind gefährlich tiefe Glukosekonzentrationen) frühzeitig abgewandt werden. Weiters liefert ein CGM-System Informationen über den Therapieerfolg in Zeitbereichen, in denen normalerweise keine oder nur sehr wenige Messpunkte mit Streifenmessgeräten aufgenommen werden (z.B. während der Nacht). Allerdings ist die Messgenauigkeit und Zuverlässigkeit von kontinuierlichen Glukosemessgeräten immer noch nicht ganz vergleichbar mit der von Streifenmessgeräten.
Eines des Probleme bei der Zuverlässigkeit der angezeigten Werte von kontinuierlichen Glukosemessgeräten sind sogenannte Kompressionsartefakte. Wird auf einen Sensor Druck ausgeübt, z.B. wenn sich ein Diabetiker während des Schlafs auf den Sensor rollt, so sinkt die angezeigte Glukosekonzentration des Messgeräts, obwohl dies nicht der wirklichen Änderung in der Blutglukosekonzentration entspricht. Erst sobald der Druck nachlässt, steigt der angezeigte Wert wieder an. Vermutlich lässt sich dieses Phänomen auf eine temporäre Änderung der Sensorsensitivität zurückführen. Während Phasen, in denen auf den Sensor signifikanter Druck ausgeübt wird, ist die angezeigte Glukosekonzentration nicht mehr repräsentativ für die Blutglukosekonzentration, welche überwacht werden soll. Dies kann z.B. zu falschen Hypoglykämie-Alarmen während der Nacht führen oder auch zu schlechten Schätzungen für die Sensorsensitivität, falls die Phase der Druckausübung gerade mit einer Kalibrationsmessung zusammenfällt.
Ziel der Arbeit ist die automatische Detektion von Kompressionsartefakten in CGM-Daten. Aus einer Vorgängerarbeit sind bereits gelabelten Daten vorhanden, in welchen Kompressionsartefakte händisch markiert wurden. Der entsprechende Datensatz soll in einem ersten Schritt noch etwas erweitert werden. Die gelabelten Daten werden verwendet, um vorhandene online-fähige Ansätze zur Detektion von Kompressionsartefakten aus der Literatur, sowie in kommerziellen CGM-Geräten implementierte zu vergleichen. In einem weiteren Schritt soll ein neuer Ansatz zur Echtzeitdetektion von Kompressionsartefakten mittels neuronaler Netze getestet werden. Eine derartige Online-Detektion kann dazu beitragen falsche Hypoglykämie-Alarme (false positive) zu vermeiden, speziell nachts, wenn dies zu einem Wecken des Patienten führen würde. Des weiteren sollen auch Ansätze analysiert werden, um Kompressionsartefakte retrospektiv detektieren zu können. Solcherlei Information ist speziell für die Einschätzung der Zuverlässigkeit von Kalibrations-Blutglukosemessungen, sowie für das Fine-Tuning von online-fähigen Algorithmen interessant.
Philipp Fleischanderl: Modellselektion und Identifikation basierend auf mehreren Datensätzen mit Anwendung auf Luftpfad-Modellbildung Präsentation
In vielen Bereichen des Ingenieurswesens werden für das Beschreiben, Verstehen bzw. Regeln realer Systeme Modelle verwendet. Um ein Modell zu erhalten gibt es zwei unterschiedliche Ansätze. Zum einen gibt es die physikalisch-mathematische Modellbildung wo man grundlegende Naturgesetze, wie zum Beispiel die Newtonschen Axiome, verwendet. Zum anderen gibt es datenbasierte Systemidentifikation, bei der man basierend auf Messdaten ein geeignetes Modell schätzt. Diese Arbeit beschäftigt sich mit der Identifikation von nichtlinearen Systemen und baut auf eine iterative Identifikationsmethode für polynomiale Modelle, die in einer vergangenen Arbeit entworfen wurde, auf. Allerdings müssen bei der iterativen Identifikation verschiedene Aspekte berücksichtigt werden, wie zum Beispiel ein geeignetes Verfahren zur Beurteilung der Modellgüte, sprich Validation, sowie eine geeignete Wahl der Modellkomplexität, damit kein Overfitting entsteht. In dieser Arbeit wird untersucht welchen Einfluss verschieden aufgebaute Datensätze auf das Identifikationsergebnis haben. Bei iterativen Verfahren ist es notwendig bei einer geeigneten Modellkomplexität die Suche abzubrechen, ob eine Schätzung des stochastischen Anteils eines Systems mittels mehrmaligem Anlegen desselben Eingangs dabei hilfreich sein kann, wird im Zuge dieser Arbeit überprüft.
Dabei stellt sich heraus, dass bezüglich der Modellauswahl bzw. der Bestimmung der Modellkomplexität Cross-Validation eine gute Schätzung des Validations-Modellfehlers liefert und daher für die Regressorselektion verwendet werden kann. Dabei spielt es keine Rolle ob man den Simulations- oder Prädiktionsfehler für die Bewertung der Modellgüte verwendet, da sich beide Fehler gleich verhalten. Des weiteren stellt sich heraus, dass es für die Modellgüte keinen Unterschied macht, ob für die Anregung des Systems einen Datensatz mit wiederholten Eingang oder einen mit eindeutigen Eingang verwendet wird, allerdings bietet der wiederholte Eingang den Vorteil den stochastischen Anteil des Systems abschätzen zu können und damit ein intuitives Kriterium für das Stoppen der Erhöhung der Modellkomplexität im iterativen Identifikationsverfahren.
Daniel Graiger: Modellierung der Glukosedynamik im Interstitialgewebe Präsentation
Diabetes mellitus ist eine Gruppe von Stoffwechselstörungen, bei denen die Insulinproduktion nicht mehr richtig funktioniert oder sich eine Insulinresistenz entwickelt, was zu einem erhöhten Blutzuckerspiegel führt. Die Erkrankung wird in zwei verschiedene Hauptkrankheitstypen eingeteilt. Der Typ-1 Diabetiker kann kein Insulin mehr produzieren, da die sogenannten CD3-Lymphozyten fehlgeleitet werden und dadurch die insulinproduzierenden β-Zellen der Bauchspeicheldrüse zerstört werden. Beim Typ-2 Diabetiker kann das Pankreas zwar noch Insulin produzieren, es kann aber nicht mehr richtig wirken. Anfangs kann durch zu hohe Insulinproduktion die Resistenz noch kompensiert werden, jedoch kann über lange Zeit die erhöhte Produktion nicht aufrecht erhalten werden, wodurch es zum Insulinmangel kommt. Die Krankheit bringt eine sehr starke Lebensumstellung mit sich und kann bei falscher oder zu später Behandlung zu schweren Folgeerkrankungen bis hin zum Tod führen.
Durch die Markteinführung der kontinuierlichen Glukosesensoren haben Diabetiker jetzt die Möglichkeit zeitlich hochaufgelöste Informationen über den Blutzuckerspiegel zu erhalten. Bei den kontinuierlichen Glukosesensoren unterscheidet man zwischen invasiv applizierte und nicht-invasive Messsysteme. Invasive applizierte Glukosesensoren müssen durch die intakte Haut eingeführt werden, hingegen nicht-invasive Sensoren an der Hautoberfläche befestigt werden. Jedoch wurde noch kein nicht-invasives Messsystem entwickelt, welches an die Genauigkeit der invasiven applizierten Sensoren herankommt.
Die invasiven applizierten Glukosesensoren sitzen im interstitiellen Fluid und messen nicht direkt die dort herrschende Glukosekonzentration, sondern eine durch elektrochemische Reaktion hervorgerufene Stromstärke. Diese Stromstärke ist proportional zur Interstitialglukosekonzentration. Da der Proportionalitätsfaktor zeitabhängig ist, müssen regelmäßige Kalibrationen durchgeführt werden, mit denen der zeitabhängige Faktor durch einen Algorithmus neu berechnet wird.
Da die kontinuierlichen Glukosesensoren im interstitiellen Fluid sitzen, ist es zwingend notwendig die Dynamik zwischen Blutglukose und Interstitialglukose zu kompensieren. Über die Jahre wurden verschiedene Modelle zur Beschreibung dieser Dynamik vorgeschlagen. Vier dieser Modelle wurden in dieser Arbeit genauer analysiert: Das Modell der reinen Zeitverschiebung, das Diffusionsmodell nach Steil und Rebrin, das Modell von Koutny und das Diffusionsmodell nach Shi.
Ziel dieser Arbeit ist die verschiedenen Modelle zu implementieren und auf signifikante Unterschiede zu untersuchen, sowie deren Vor- und Nachteile zu analysieren.
Die Algorithmen für das Modell der reinen Zeitverschiebung, als auch für das Diffusionsmodell nach Steil und Rebrin konnten bereits in implementierter Form übernommen werden. Der Algorithmus für das Modell von Koutny wurde vollständig implementiert und die unbekannten Parameter mittels Optimierungsverfahren berechnet. Das Diffusionsmodell nach Shi konnte aufgrund fehlender Messungen im verwendeten Datensatz aus einer klinischen Studie nicht parametriert werden.
Das Diffusionsmodell nach Steil und Rebrin liefert das beste Resultat, wenn es darum geht den echten Blutzuckerspiegel am besten wiederzugeben. Das Modell von Koutny weist die geringste zeitliche Korrelation auf, weicht jedoch, trotz der größeren Anzahl an optimierbaren Parametern, weiter von den SMBG-Werten ab. Das Modell der reinen Zeitverschiebung liefert trotz des vereinfachten Modells sehr gute Ergebnisse.
Abschließend kann man sagen, dass alle Modelle Berechtigung verdient haben, wobei das Diffusionsmodell nach Steil und Rebrin hervorsticht, da dieses die wichtigsten Eigenschaften am besten wiedergibt.
Klara-Maria Hörschläger: Interpolation und Extrapolation von korrelierten physiologischen Zeitreihen Präsentation
Fehlende Daten zu rekonstruieren ist ein häufiges Problem, das in sehr vielen verschiedenen Bereichen auftritt. Angewandt auf medizinische Patientendaten kann es Auswirkungen auf deren Diagnose, Prognose und Behandlungen bewirken. Im medizinischen Bereich stellt die irregeluäre Aufzeichnungszeit neben der oft großen Anzahl an verschiedenen gleichzeitig gemessenen Größen ein zusätzliches Problem dar. Die Struktur solcher Datensätze kann dargestellt werden als Matrix, in der jede Spalte einer aufgezeichneten Größe (Blutdruck, Herzfrequenz, etc.) entspricht, wobei die Zeilenzugehörigkeit dem gemessenen Zeitpunkt entspricht. Das Fehlen von Daten in dieser Matrix kann darauf zurückgeführt werden, dass etwa eine Größe zu einem bestimmten Zeitpunkt nicht gemessen wurde, die Aufzeichnung vergessen wurde oder aber ein Sensor ausgefallen sei.
Es gibt bereits viele bekannte Methoden um fehlende Daten zu rekonstruieren. Das grundlegende Problem dabei ist, dass entweder die Werte einer gemessenen Größe in deren Strang interpoliert, oder gleichzeitig gemessene verschiedene Größen zu einem Zeitpunkt imputiert werden können, nicht aber beides. In beiden Fällen wird wertvolle Information vernachlässigt: Bei der Interpolation die Beziehung zu anderen zeitgleich gemessenen Größen, bei Imputation die Information im "eigenen" Datenstrang.
Im Oktober 2018 wurde ein Paper veröffentlicht, das eine neue Methode, mit der genau dies möglich ist, nämlich Interpolation und Imputation zu verbinden und so keine Information im Datensatz zu vernachlässigen, vorstellt. Die Realisierung erfolgt durch das Verbinden von zwei Neuronalen Netzten. In meiner Bachelorarbeit möchte ich Daten der MIMIC-III Datenbank auf diesen Algorithmus, welcher in implementierter Form vom Verfasser zur Verfügung steht, anwenden. Es werden Ergebnisse, die in diesem Paper vorgestellt werden, rekonstruiert, sowie Eigenschaften des Algorithmus ermittelt und, optional auf Extrapolation erweitert. Dabei erfolgt ein Vergleich zwischen bisher bekannten Interpolations- und Imputationsmethoden und dem neuen M-RNN (Multidimensional Recurrent Neural Network). Bisher bekannte Methoden sind Kubische Interpolation, Spline Interpolation sowie die Miss Forest und Matrix Completion Methoden zur Imputation.
Die Anwendung soll das Rekonstruieren fehlender medizinischer Daten im Vergleich zu bisherigen Methoden verbessern. Der Vergleich und die qualitative Bewertung dessen erfolgen durch eine Kostenfunktion. Der dafür verwendete Least Squares Error bewertet den Fehler zwischen berechnetem und echtem Messwert.
Eine weitere Idee das M-RNN zu verwenden: Wenn durch dessen Anwendung die Rekonstruktion einer gesamten Größe möglich ist, kann dadurch ein "virtueller Sensor" verwendet werden, um eine Größe zu berechnen und das Messen dieser durch einen Sensor zu ersetzten. Dies kann beispielsweise für 3. Welt-Länder, in denen nicht unbegrenzt Ressourcen und finanzielle Mittel zur Verfügung stehen, dienlich sein. Dafür bedarf es weiterführendem Testen und Erweitern des Algorithmus. Auch bei der Modellbildung können je nach Vorgehensweise zum Erstellen, ansonsten zum Testen reale Datensätze relevant sein. Beim modellieren physiologischer Vorgänge kann das M-RNN folglich nützlich sein um die Datensätze mit möglichst geringem Fehler zu vervollständigen.
Michael List: Bestimmung von Position, Geschwindigkeit und Fahrzeugtyp anderer Verkehrsteilnehmer basierend auf Messdaten verschiedener Sensoren
Diese Arbeit befasst sich mit der Bestimmung von Position, Geschwindigkeit und Fahrzeugtyp anderer Verkehrsteilnehmer basierend auf den Messdaten verschiedener Sensoren. Ziel ist es, mittels Sensorfusion ein möglichst genaues Abbild der Umgebung zu schaffen. Dieses Abbild kann dann verwendet werden, um Fahrerassistenzsysteme oder autonomes fahrenden Fahrzeugen Informationen über die umliegende Umgebung zu geben.
Um dieses Abbild zu generieren wurde ein Sensorsetup bestehend aus einer Stereokamera, einem Radar und einem Lidar an der Front und einer Stereokamera und einem Radar an dem Heck eines Testfahrzeuges angebracht. Es wurde mit der Kalibrierung der Stereokameras und dem Trainieren eines Objektdetektionsalgorithmus begonnen. Aufbauend auf diesen Ergebnissen wurde anschließend eine Sensorfusion der Messergebnisse der verbauten Sensoren realisiert und der geschriebene Algorithmus auf bereits aufgezeichnete Messdaten angewandt.
Durch die Sensorfusion mit kombiniertem Tracking konnte eine erhöhte Zuverlässigkeit bei der Objektdetektion mittels der eingebauten Sensoren erreicht werden. Ausfälle von Sensoren oder kurzzeitige Unterbrechungen in den Sensorsignalen konnten mittels Tracking kompensiert werden. Probleme hingegen treten im Zusammenhang mit der Zuverlässigkeit der Objektdetektion mittels Kamera auf. Diese muss besser trainiert werden, um die Kamera als vollwertigen Sensor in die Sensorfusion integrieren zu können.
Stefan Reisinger: Automatisierte Bolusgabe bei künstlichen Bauchspeicheldrüsen für Typ-2-Diabetes Präsentation
Diabetes mellitus ("Diabetes") ist eine chronische Stoffwechselerkrankung, welche eine lebenslange medizinische Betreuung zur Folge hat. Im Jahr 2017 litten ca. 600.000 Menschen in Österreich an dieser Krankheit, laut Prognosen von [1] werden 2030 mehr als 800.000 betroffen sein. Die Dunkelziffer ist vermutlich noch viel höher, da viele Menschen Diabetes haben, aber diese Krankheit noch nicht bei ihnen diagnostiziert wurde. Österreichweit werden jährlich 4,8 Mrd. € für die Insulinbehandlungen ausgegeben.
Der Großteil dieser Kosten wird zur Behandlung von diabetesbedingten Komplikationen verwendet. Diese sind oft auf eine falsche Dosierung des Insulins bzw. anderer Medikamente zurückzuführen. Bei Überdosierung kann es zu Hypoglykämie (“Unterzucker”) kommen, was unter Umständen auch lebensbedrohlich werden kann. Hyperglykämie (“Überzucker”) entsteht hingegen durch eine Unterdosierung, was einen erhöhten Blutglukosespiegel zur Folge hat.
Mit den in den letzten Jahren immer populäreren Continous Glucose Monitoring (CGM)- Geräten wird die Glukosekonzentration kontinuierlich alle 1 − 15 min gemessen. Durch die ebenfalls immer beliebter werdenden Insulinpumpen, welche derzeit hauptsächlich für Typ- 1-Diabetes mellitus verwendet werden, stehen bereits die Grundkomponenten für einen geschlossenen Regelkreis zur Verfügung.
Wie der Titel schon verrät wird mit einer künstliche Bauchspeicheldrüse (artificial pancreas) (AP) die Funktion des menschlichen Pankreas nachgebildet. Die Entwicklungsstufen werden im Kapitel 2 näher erläutert. Kurz zusammengefasst gibt es hybride AP, welche den basalen Insulinhaushalt regeln. Bei dieser Anwendung ist es für den Patienten trotzdem notwendig nach Mahlzeiten einen proportionalen Bolus zu injizieren. Die nächst höhere Entwicklung stellt einen vollkommen geschlossenen Regelkreis dar. In dieser Arbeit wird dieser später als Full-AP bezeichnet. Diese fully closed-loop-Systeme regeln sowohl den basalen, als auch den Bolusinsulinhaushalt im Körper. Für den Patienten stellt das eine enorme Erleichterung dar, da kein Eingreifen mehr notwendig ist. Ein AP setzt sich aus einem CGM-Gerät, einer Insulinpumpe und einem geeigneten Regelalgorithmus zusammen.
Die Forschung befasst sich mit Regelalgorithmen, welche in Kombination mit dem CGMGerät und der Insulinpumpe eine künstliche Bauchspeicheldrüse bilden. Hauptsächlich wird an Konzepten für Typ-1-Diabetes mellitusgeforscht. Da Typ-2-Diabetiker eine viel geringere Glukosevariabilität besitzen, stellt sich die Frage, ob die derzeit vorhandenen Erkenntnisse bereits für Typ-2 Diabetiker im fortgeschrittenen Stadium angewendet werden können.
Das Hauptproblem einer manuellen “Diabetes-Regelung” ist das langsam wirkende subkutan injizierte Insulin, welches um ein vielfaches langsamer ist, als jenes produziert von einer gesunden Bauchspeicheldrüse. Deshalb ist es essenziell eine Mahlzeit, welche einen Anstieg der Glukosekonzentration bewirkt, schnellst möglich zu detektieren. In dieser Arbeit wird auf bereits implementierte Mahlzeiterkennungsalgorithmus (MEA) aus [2] bzw. einen neuen aus der Literatur [3] zurückgegriffen. Diese Konzepte werden anhand von Daten aus einer klinischen Studie A getestet und optimiert.
Mithilfe dieser MEA und verschiedener Bolus-Insulin (BI) Strategien wird eine Regelung implementiert, welche mit Deviation Analysis und den Patientendaten getestet wird. Dazu wird ein PD-Regler von [4] mit einer zusätzlichen Sicherheitseinrichtung verwendet. Um den Regler bewerten zu können, werden die Konzepte mit zwei anderen (manuelle Bolusgabe & ohne BI-Verabreichung) verglichen.
Die grundlegende Aufgabe dieser Arbeit ist die bereits vorhandenen Algorithmen zu optimieren und zu erweitern. Nach der Parameteroptimierung und erneutem Testen der MEA war teilweise eine enorme Verbesserung festzustellen, wodurch sich auch die künstlichen Bauchspeicheldrüse verbesserte und sehr passable Ergebnisse liefert.
Vinzenz Roth: Stochastische Generierung der Fahrdynamik Präsentation
Die Wichtigkeit und der starke Trend von autonomen Fahrzeugen muss nicht hervorgehoben werden. Viele technische Voraussetzungen für autonomes Fahren erfordern zudem keine große Komplexität: das Erkennen der Straßenränder, automatisch zu lenken und zu bremsen, Geschwindigkeitsbeschränkungen einzuhalten und Straßenschilder richtig zu erkennen. Natürlich muss auch der Umgang mit Gefahrensituationen funktionieren, wie auch die Übergabe des Lenkrads zurück an einen Fahrer muss gewährleistet sein.
Dennoch müssen diese Kontrollsysteme vor ihrer Kommerzialisierung auf eine Zuverlässigkeit, Sicherheit und Stabilität geprüft werden, um eine fehlerfreie Funktion sicherzustellen. Bei konventioneller Überprüfung im Straßenverkehr müssen mehr als 100 Millionen Kilometer gefahren werden, um eine statistisch gültige Aussage über die Sicherheit treffen zu können [1]. Darüber hinaus muss bei Einführung eines neuen Modells oder einer Softwareaktualisierung diese Sicherheitsfahrt immer wieder unternommen werden. Dies führt zu enormen Zeit- und Kostenaufwand für die Bewertung der Sicherheit.
In diesem Kontext stellt sich die Frage welche neuen Ansätze diesen enormen Aufwand, verbunden mit dem Testen im Straßenverkehr, reduzieren könnte. Der Trend bewegt sich in Richtung virtuelles Testen. Einer der Vorteile ist die Möglichkeit Fast-Unfall-Szenarien oder sogar Szenarien mit einem unvermeidlichen Unfall simulieren und reproduzieren zu können. Zusätzlich verringert virtuelles Testen den Zeit- und Kostenaufwand.
Allerdings birgt auch virtuelles Testen seine Herausforderungen mit sich. Die Test Szenarien werden normalerweise von Sammlungen entnommen, welche von Ingenieuren erstellt wurden. Unglücklicherweise kann bei diesem Fortschritt der Technologie von autonomen Fahrzeugen kaum ein a priori definiertes Set von Szenarien gefunden werden.
Somit bestehen geeignete Methoden der Validierung aus der Kombination von echten Verkehrsszenarien und dem virtuellen Testen basierend auf den Informationen der gesammelten Daten.
Im Rahmen dieser Arbeit werden erzeugende gegnerische neuronale Netzwerke mit den zur Verfügung gestellten Daten trainiert. Diese Netzwerke, in Englisch auch „generative adversarial networks“ (GANs), werden für die Erzeugung realistischer Daten verwendet. Im Kontext dieser Arbeit bedeutet das, die Erzeugung von zufälligen aber wahrheitsgetreuen Verkehrsszenarien, welche weiteres für die Validierung verwendet werden können. Zufolge einigen Forschungsarbeiten bieten GANs eindrucksvolle Anwendungsfälle und können verblüffende Ergebnisse liefern. Ein paar dieser Anwendungsgebiete werden zusammen mit Resultaten zu Beginn dieser Arbeit gezeigt.
Grundsätzlich besteht der Ansatz aus dem Training von zwei neuronalen Netzen mit widersprechenden Zielen, ein Generator und ein Diskriminator, welche sich gegenseitig zwingen besser zu werden. Der Generator versucht wahrheitsgetreue Samples zu erzeugen und der Diskriminator versucht zwischen echten Daten und Fälschungen zu unterscheiden. Dieses Konzept macht es möglich tiefe generative Netzwerke zu trainieren und äußerst realistische Datenproben zu erzeugen.
Klaus Rusmayr: Stochastische Generierung von medizinischen Zeitreihen Präsentation
Die Bauchspeicheldrüse (der Pankreas) von Patienten mit Typ-1-Diabetes produziert wenig oder kein Insulin. Die Menge an Glukose im Blut muss daher mithilfe von Insulininjektionen oder einer Insulinpumpe geregelt werden. Um diese Aufgabe zu erfüllen und Vorhersagen treffen zu können, ist es vorteilhaft den Glukosegehalt im Blut kontinuierlich zu messen. Die kontinuierliche Messung wird im englischen Sprachraum als „continuous glucose monitoring“ (CGM) bezeichnet. Für die Weiterentwicklung von CGM sind sowohl technische Methoden, als auch mathematische Algorithmen von Bedeutung. Um diese Algorithmen auf deren Funktionalität zu testen, werden realistische Glukose-Verläufe benötigt. Da es sich bei diesen Verläufen um klinische Daten handelt, unterliegen sie dem Datenschutzgesetz, weshalb auf diese Daten nicht einfach zugegriffen werden darf.
„Generative adversarial networks“ (GANs) sind eine Unterkategorie von neuronaler Netzwerkarchitektur, welcher es möglich ist Datenmuster zu lernen und zu reproduzieren. Das Ziel dieser Arbeit ist es, GANs mit gemessenen Glukose-Verläufen zu trainieren und zufällige, realistische Verläufe zu produzieren. Die produzierten Daten können beispielsweise für das Testen von Vorhersage-Modellen verwendet werden.
Stefan Schlömmer: Entwicklung einer Gangschaltschnittstelle und Modellierung des Schaltverhaltens Präsentation
Man erwartet sich heute von einem Fahrzeug mit modernem Automatik-Schaltgetriebe, dass es in den Aspekten Effizienz, Komfort, Leistung und Umweltschutz optimiert ist. Obwohl die Fahrzeugforschung eines der am weitesten entwickeltesten Fachgebiete der Technik ist, kann trotzdem vieles noch verbessert werden. So wird auch an Universitäten und in Firmen an neuen Getriebearten und Schaltstrategien geforscht. Diese, meist etwas weniger wichtig genommene Komponente, spielt einen entscheidenden Einfluss bei wichtigen Faktoren wie Fahrkomfort und Abgasemissionen. Diese Arbeit beschäftigt sich mit der Erstellung eines Werkzeuges zur Auslegung und Analyse moderner Schaltstrategien. Als Ziel sollen die Funktionen und Abläufe sowie die noch zu bewältigenden Probleme moderner Automatikgetriebe näher gebracht werden.
Zuerst wird etwas Grundwissen dargestellt, danach wird die Hauptaufgabe der Arbeit beschrieben: Das Implementieren eines Gangschaltinterfaces. Es ermöglicht, den Gang des in einem Fahrzeug verbauten Automatikgetriebes, von einem externen Rechner aus zu steuern. Das Interface wurde auf mehreren Messfahrten getestet. Dabei wurden Motor- und Getriebedaten des Fahrzeuges über den CAN-Bus aufgezeichnet. Die Daten werden verwendet, um den Ablauf während eines Schaltvorganges besser zu verstehen. Gleichzeitig dienen sie als Basis für die inverse Modellbildung des Fahrzeug - Antriebsstranges. Das Modell ermöglicht bei einer aufgezeichneten Autofahrt unterschiedliche Schaltstrategien zu simulieren und die Motor-Belastung dabei zu ermitteln. Erreicht wird dies durch die Erweiterung der starren Beschreibung des Antriebsstranges durch ein dynamisches Teilsystem. Es zielt darauf ab, während des Synchronisierungsvorgangs Motordrehzahl und Motormoment zu ermitteln.
Jakob Schrott: Erweiterung & Evaluierung einer Autonomous-Overtaking Funktion mit Risikobewusst Präsentation
In der Arbeit geht es um ein Sicherheitsoptimiertes Überholmanöver.
Zuerst muss festgelegt wie ein sicheres Überholmanöver definiert ist. Im nächsten Schritt wird die Regelungsstruktur ausgewählt. Hier wurde ein Model Predictive Controller verwendet. Als nächsten werden die Beschränkungen und die Kostenfunktion für das Modell festgelegt. Es müssen nur zwei zusätzliche Beschränkungen eingeführt werden, weil aus einen bereits existierenden Regler aufgebaut wird. Die erste Beschränkung betrifft die Lateral Beschleunigung und die Gesamtbeschleunigung. Die zweite Beschränkung beinhaltet das nach fahrende Fahrzeug. Abschließend wird der Regler anhand einer Simulation mehrerer Szenarien getestet und mit Menschen verglichen.
Lukas Schubert: Modellbasierte retrospektive Detektion von Mahlzeiten in Diabetesdaten Präsentation
Diabetes Mellitus ist eine Stoffwechselerkrankung, welche sich durch eine verringerte Insulinproduktion und/oder eine erhöhte Resistenz der Zellen gegen Insulin auszeichnet. Unterschieden wird zwischen Typ-1 Diabetes (T1D) und Typ-2 Diabetes (T2D). Im Falle eines T1D Patienten wird von der Bauchspeicheldrüse kein Insulin produziert und die Versorgung davon muss extern erfolgen. Bei T2D Patienten haben hingegen die Zellen eine Resistenz gegen das körpereigene Insulin ausgebildet. Im fortgeschrittenen Stadium wird das Pankreas überlastet, wodurch die Insulinproduktion absinkt und die Krankheit zunehmend Typ-1 Diabetes gleicht.
Durch technologische Fortschritte bei Geräten zur Glukoseüberwachung (CGM) und Insulinpumpen konnte die Therapie bedeutend verbessert werden. Mit dem Aufkommen der CGM Geräte ist es möglich den Glukosespiegel in einer durch Streifenmessgeräte (SMBG) unerreichten zeitlichen Auflösung darzustellen. Dadurch ergeben sich neue Möglichkeiten, wie zum Beispiel eine Trendanalyse zur Warnung vor gefährlich niedrigen Glukosewerten, oder auch eine künstliche Bauchspeicheldrüse (in Verbindung mit einer Insulinpumpe). Bei der künstlichen Bauchspeicheldrüse handelt es sich um eine Kombination aus einer Insulinpumpe und einem CGM-Sensor um automatisch Insulin verabreichen zu können. Ein Großteil der dabei verwendeten Regelalgorithmen ist modellbasiert und erfordert die Kenntnis vieler patientenspezifischer Parameter.
Um diese Parameter bestimmen zu können, sind qualitativ hochwertige Datensätze erforderlich. Während klinische Studien solche Daten oftmals in ausreichender Qualität bereitstellen, können Patientenaufzeichnungen in den meisten Fällen nicht zur Identifikation herangezogen werden. Der Grund hierfür liegt darin, dass diese ungenaue oder fehlende Daten enthalten können. Da künstliche Bauchspeicheldrüsen die Menge an injiziertem Insulin selbst bestimmen, können aus fehlerhaften Mahlzeiten Aufzeichnungen bestimmte Parameter zu aggressiven Einstellungen führen, welche durch zu große Injektion gefährlich niedrige Glukosekonzentrationen verursachen.
Ziel dieser Arbeit war es einen Algorithmus zu entwickeln, welcher die CGM-Daten auf Mahlzeiten untersucht. Da diese Daten in weiterer Folge zur Modellidentifikation herangezogen werden sollen, ist eine retrospektive Analyse ausreichend.
In einem ersten Schritt wurde versucht die Parameter des Subcutaneous Oral Glucose Modells (SOGMM) aus einfach zu ermittelnden Patientendaten (zB. Gewicht, Größe, BMI ...), zu bestimmen. Es hat sich jedoch gezeigt, dass dies nicht ohne Weiteres möglich war, weshalb auf Populationsmittelwerte zurückgegriffen werden musste.
Als Nächstes wurde ein Algorithmus entwickelt und mit bereits etablierten Methoden zur Mahlzeitenerkennung verglichen. Die Performance lag dabei leicht über jener der Vergleichsalgorithmen. Weiters konnte die Anzahl an falsch detektierten Nahrungsaufnahmen durch eine Kombination mit weiteren offline Algorithmen deutlich verringert werden.
Zusätzlich wurden die Größen der Mahlzeiten geschätzt. Die Schätzung basiert dabei auf der geschätzten Störung eines Kalman Filters. Allerdings lagen die erzielten Ergebnisse nicht im erhofften Genauigkeitsbereich.
Admir Sovtic: Automatische Insulintitrierung bei Typ-2-Diabetikern
Diabetes mellitus ist eine weltweit verbreitete, lebensgefährliche Stoffwechselerkrankung, die durch chronisch erhöhte Blutglukose-Werte gekennzeichnet ist. Das Problem bei Patienten mit Diabetes liegt darin, dass die Bauchspeicheldrüse kein oder nur eine begrenzte Menge an Insulin produziert. Die American Diabetes Association (ADA) sagt voraus, dass die Zahl der diagnostizierten Patienten von zur Zeit 425 Millionen auf 693 Millionen bis 2045 ansteigen wird. Laut der International Diabetes Federation (IDF) betrugen die Ausgaben für die Behandlung von Diabetes im Jahr 2017 mindestens 727 Milliarden US-Dollar.
Im Allgemeinen gibt es zwei Arten von Diabetes: Typ-1-Diabetes (T1D) und Typ-2- Diabetes (T2D). Während die körpereigene Insulinproduktion bei T1D vollständig eingestellt wird, produziert die Bauchspeicheldrüse von T2D-Patienten immer noch eine begrenzte Menge an Insulin. Doch früher oder später müssen die meisten Patienten mit T2D von der Behandlung mit oralen Antidiabetika auf die Therapie mit lang wirkendem (Basal-) Insulin umsteigen. Um den Blutglukose-Spiegel in einen gesunden Bereich zu steuern und Hyper- und Hypoglykämie zu vermeiden, muss für jeden Patienten die optimale Insulindosis gefunden werden. Dieser Prozess zur Ermittlung der optimalen Dosis wird als Titration bezeichnet und stellt sowohl für die behandelnden Ärzte als auch für die Patienten eine Herausforderung dar. Viele entscheidende Faktoren haben einen Einfluss auf die Titration und beeinflussen, ob eine zufriedenstellende Behandlung erreicht werden kann oder ob gesundheitliche Probleme auftreten können. Für die Durchführung der Titration werden heutzutage einfache papierbasierte Algorithmen verwendet, mit denen die Patienten ihre benötigte Insulindosis anhand der gemessenen Blutglukose-Werte selbst bestimmen können.
Mehrere Computeralgorithmen wurden bereits für die automatisierte Ermittlung der benötigten Insulindosen vorgeschlagen, vor allem aber für T1D. Darüber hinaus basieren diese Algorithmen meist auf heuristischen Regeln, die auf der Expertise erfahrener Ärzte basieren. Es gibt nur wenige Ausnahmen, bei denen Algorithmen vorgeschlagen wurden, die auf physiologischen Modellen basieren.
Daher war das Ziel der vorliegenden Arbeit, einen Computeralgorithmus für die Titration von Basalinsulin vorzuschlagen. Basierend auf einer begrenzten Menge klinischer Daten sollte die Beziehung zwischen Eingangsvariablen (in unserem Fall: Menge an Basalinsulin) und Ausgangsvariablen (gemessene Glukosekonzentration)analysiert und quantifiziert werden, um ein statistisches Modell vorzuschlagen.
Die klinischen Daten für diese Arbeit wurden während einer klinischen Studie erfasst, deren Ziel es war, die Machbarkeit eines neuartigen Konzepts zur Basalinsulin- Initiierung zu testen. Diese Daten wurden analysiert, um Merkmale und Abhängigkeiten zwischen der optimalen Enddosis und den Merkmalen des Patienten zu finden. Diese Ergebnisse halfen, ein statistisches Modell vorzuschlagen, das den Zusammenhang zwischen Blutglukose-Werten und optimaler Insulindosis für die Titration beschreibt.
Das vorgeschlagene Modell liefert eine gute Vorhersage für 5 von 7 Patienten. Das Hauptproblem der Arbeit war die begrenzte Menge an Daten, da mit 7 Patienten nur 7 "Messpunkte" vorliegen. Diese Tatsache erschwerte es, in den meisten Untersuchungen eine vernünftige Aussage zu treffen, da jeder Patient einen hohen Einfluss auf das Ergebnis hatte. Außerdem kann die Verlässlichkeit des Modells nicht versichert werden, da die Anzahl der Patienten zu niedrig ist, um eine statistische Aussage zu treffen.
Klaus Zauner: Analyse verschiedener Metriken zur System-Identifikation Präsentation
Diese Arbeit beschäftigt sich mit der Analyse von zur L2-Norm alternativen Kostenfunktionen zur datenbasierten System-Identifikation. In der System-Identifikation wird in vielen Fällen auf den LS-Schätzer (Methode der kleinsten Fehlerquadrate) zurückgegriffen um die unbekannten Modellparameter zu bestimmen – im ARX-Fall lassen sich dabei die Parameter analytisch berechnen. Für den nichtlinearen Fall bzw. für Modellstrukturabweichungen oder Störungen, die nicht unbedingt mittelwertfreies, weißes Rauschen sein müssen, soll nun untersucht werden, ob es alternative Schätzergibt, die in diesen Fällen bessere Ergebnisse liefern. Im theoretischen Teil werden der LS- (L2) Schätzer hergeleitet sowie seine Eigenschaften analysiert um eine Basis für die nachfolgenden Simulationsstudien zu schaffen, in denen diese Eigenschaften systematisch verletzt werden. Des Weiteren werden die alternativen Kostenfunktionen formuliert und in MatLab implementiert. Die MatLab-Implementierung umfasst des Weiteren ein Framework verscheidener Funktionen zur Daten-Generierung und Aufbereitung sowie zur Validation. Im praktischen Teil werden Simulationsstudien an parametrischen Modellen sowie einem physikalisch motivierten Tankmodell durchgeführt um die Eigenschaften der verschiedenen Schätzer im Bezug auf verschiedene Störungen sowie Modellstrukturabweichungen zu untersuchen.
Als Ergebnis der Arbeit kann für die getesteten Fälle beobachtet werden, dass für den Fall von farbigem Rauschen als Störung bzw. bei Störspitzen, der L∞- bzw. der L1-Schätzer brauchbare Alternativen zum LS-Schätzer darstellen – für den Fall von Störungen in Form von weißem Rauschen oder bei Modellstrukturabweichungen scheint der LS-Schätzer immer noch die beste Wahl zu sein.