Philipp Hofstadler: Prediction of hypoglycaemia of T1DM patients by means of the “Guaranteed Error Machine” Präsentation
The goal of this thesis is to find a method to predict hypoglycaemic episodes of patients, who suffer from Type 1 Diabetes Mellitus (T1DM) for a predicted time frame of 10 to 40 minutes by using the “Guaranteed Error Machine (GEM)”. This should allow patients to detect this dangerous level of blood glucose in advance and avoid this state by taking active measures like taking dextrose. It should furthermore improve their general daily insulin management. The aim is not to predict a certain level of blood glucose, but rather to warn the patient in time, if he is endangered to fall below the critical limit of 70 mg/dl.
The used data material includes datasets of blood glucose levels, that are created with the UVA/Padova-Simulator, that is based on the model of “Dalla Man and Cobelli” [ (1) ], and datasets from clinical studies of real patients. At the beginning the medical background itself, regarding the blood glucose system of the human body is explained, to ensure the understanding of all individual sub-processes and substances and their impacts on the overall system. Then this is followed by the mathematical aspects of the GEM algorithm, its implementation and the application of the GEM.
After creating an optimized adaption of the GEM algorithm, it was applied to the datasets of real and virtual patients. The results of the GEM were evaluated and compared with the results of a common Auto Regressive model
Markus Deinhofer: Bewertung und Weiterentwicklung des Verdünnersystems für die Rußmassenmessung am Motorprüfstand und im Fahrzeug - (gesperrte Arbeit)
Becaues of the complex ehaust aftertreatment in modern diesel cars there is needed a highly dynamic and accurate measuring device. The particel matter generated by diesel engines is nowadays drastly reduced. The widely introduced diesel particel filters reduce the particel matter extremly. The problem of measuring particel matter is the limitation of the measuring device itself. Only a small range is measurable for the widely used Micro Soot Sensor from AVL. Due that there is the need for a dilluting system. The system needs to be accurate, robust and capable of fast measurement. The tested device is a fully mechanical dillution device. The nonlinear dillution is processed by software to get the correct particel matter value.
Johannes Diwold: Adaptive nichtlineare Regelung mittels RLS und MPC (C/GMRES) Präsentation
Die optimale Regelung von nichtlinearen zeitvarianten Systemen stellt eine Herausforderung dar. Daher befasst sich diese Arbeit mit einer mögliche Herangehensweise für diese Systeme. Es wird das Konzept eines adaptiven Regelkreises für nichtlineare Systeme bestehend aus einem Nonlinear Model Predictive Control (NMPC) und einer Identifikation nach dem Recursive Least Squares (RLS)-Verfahren vorgestellt. Der NMPC basiert auf dem C/GMRES-Verfahren und ist damit sehr recheneffizient. Er wurde speziell für Input/Output-Modelle entwickelt und im Rahmen dieser Arbeit um eine Parameteradaption erweitert. Im ersten Teil wird auf die theoretischen Grundlagen des RLS und C/GMRES-MPC Bezug genommen und im zweiten Teil wird die Implementierung sowie die Anwendung auf einige Simulationsbeispiele und ein reales System gezeigt. Insbesonders wird die Konvergenz der C/GMRES-Lösung gegen die optimale Lösung und der Einfluss der Eingriffsparameter von C/GMRES-MPC und RLS anhand eines Simulationsbeispiels analysiert. Es werden die Probleme die sich bei der Kombination von C/GMRES-MPC und RLS beziehungsweise bei der Identifikation im geschlossenen Regelkreis ergeben aufgezeigt sowie Ursachen und mögliche Lösungen diskutiert.
Patrick Fath: Optimierung des Startvorgangs für einen Range Extender Präsentation
Im Rahmen dieser Bachelorarbeit werden verschiedene Startmöglichkeiten eines Range Extenders untersucht und aufbauend eine optimale Startstrategie entwickelt. Hierfür wird der vorhandene Motorprüfstand des Instituts für Design und Regelung mechatronischer Systeme an der JKU Linz verwendet. Ein Range Extender ist ein zusätzliches Aggregat in elektrischen Fahrzeugen und dient zur Erhöhung der Reichweite. In dieser Arbeit wird ein Dieselmotor, der mit einer elektrischen Maschine gekoppelt ist, verwendet. Aufgrund dessen werden zuerst die Grundlagen des Motors und der Entstehung von Emissionen behandelt und die möglichen Eingrisgröÿen analysiert. Diese Erkenntnisse werden zur Veranschaulichung auf den Startvorgang in den Leerlauf angewandt. Um den Range Extender stationär in einem ezienten Arbeitspunkt betreiben zu können wird der optimale Betriebspunkt abhängig von Drehzahl und Drehmoment gesucht. Da der Motor auch auf eziente Art und Weise in diesen Betriebspunkt übergeführt werden soll werden verschiedene Trajektorien analysiert. Basierend auf diesen Daten wird der Range Extender zuerst von der elektrischen Maschine auf die optimale Drehzahl hin hochgeschleppt und dann erst wird die Gaspedalstellung so gesetzt damit dieser auch das optimale Drehmoment erreicht und sich somit wieder im optimalen Betriebspunkt bendet. Dieses Setzen des Gaspedals wird zum Schluss noch computerunterstützt mithilfe einer vorher denierten Kostenfunktion optimiert.
Marco Genshofer: Stochastic Model Predictive Control of Blood Glucose for Patients with Type I Diabetes Präsentation
Diabetes is a metabolic disease, that can be traced back to the increased insulin resistance of cells or the malfunction of the pancreas. In 2014 approximately 422 million adults were diagnosed with diabetes, which is almost three times the count of 1980 [8]. Nearly 5% is allocated to Type 1 diabetes, in which the immune system destroys the insulin producing cells in the pancreas, resulting in an insulin deficit in the blood stream. Thus, these patients have to supply the hormone externally, which can be achived with multiple or continuous injections [12]. The measurement of glucose concentration is executed by the patient himself/herself via finger pricks or automatically with CGMS (continuous glucose monitoring sensors), which comes with some disadvantages, however. With the attempt to develop an artificial pancreas to increase the patients’ standard of living, the question of an appropriate controller to regulate the blood glucose level in the best way possible arises. This means, finding an appropriate dose of insulin, that reduces the time of a hyperglycemic state, while
guaranteeing a blood glucose level above the hypoglycemic threshold. This paper targets on proving the validity and usability of a certain controlling approach in conjunction with a predictive controller. A key element for this control approach is a meaningful handling of inevitable model uncertainty caused by many unknown influences and modeling errors. First an identification algorithm is implemented and extended, in order to estimate the parameters of a dynamic model of the blood glucose. For this purpose, an iterative algorithm based on [1] is used. Possible initial values and the consistency of the parameter values have to be considered in order to finally come to the controller synthesis. Simulation studies are used to generate data sets, that are afflicted with a recognisable uncertainty of unknown extend, which raises the question of robustification. Hence, every identified set of parameters constitutes a possible scenario. In order to consider these uncertainties, the “Modulating Robustness Approach” is introduced to calculate a robust input. The choice of the number of the parameter sets comes with the possibility to influence the level of robustness. On the basis of a mean model the controller shall be verified and the results are discussed in the end.
Thomas Leidinger: Reduktion transienter NOx Emissionen eines Dieselmotors durch Input-Shaping der Einspritzparameter Präsentation
Das Ziel dieser Bachelorarbeit war es, die Input-Shaping Regelungsstrategie auf einen größeren Arbeitsbereich am Dieselmotor anzuwenden, um das Überschwingen der NOx-Emissionen, welche durch transiente Gaspedalsprünge entstehen, zu minimieren. Dabei wurde ausgehend von der bestehenden Methode, welche auf einem Betriebspunkt (Gaspedalstellung, Drehzahl) ausgelegt wurde, die erweiterte Regelung durch identifizieren von geeigneten Modellen in den jeweiligen Arbeitsbereichen entwickelt, wobei das Input-Shaping am Raildruck und dem Haupteinspritzwinkel, und nicht wie bei der bestehenden Methode an der Gaspedalstellung, angewendet wurde. Die benötigten Input-Shaping Parameter konnten aus den Übertragungsfunktionen der erhaltenen Systeme berechnet werden. Die durchgeführten Messungen am Prüfstand führten zu dem Ergebnis, dass die Input-Shaping Methode im unteren Gaspedal- und Drehzahlbereich die größten Verbesserungen der NOx-Emissionen liefert. In den anderen Bereichen tritt wenig bis kein Überschwingen der NOx-Emissionen auf, wodurch das Input-Shaping in diesen Fällen wenig Sinn macht. Die negativen Gaspedalsprünge in den verschiedenen Arbeitsbereichen verursachen im Allgemeinen ein weniger starkes Überschwingen in den NOx-Emissionen als die positiven Gaspedalsprünge, wodurch Diesen weniger Beachtung geschenkt wird.
Daniel Niedermayr: Evaluierung von Sensorfusionsmethoden zur Kombination von virtuellen und realen Sensoren Präsentation
Sensoren können unterschiedliche Eigenschaften im stationären bzw. transienten Bereich aufweisen. Der Begriff Sensorfusion beschreibt die Kombination von mehreren Sensoren, um insgesamt einen zuverlässigeren Schätzwert zu erhalten. In dieser Arbeit werden verschiedene Methoden zur Sensorfusion untersucht und speziell auf die Messung von Stickoxiden (NOx) an einer Verbrennungskraftmaschine angewandt. Bei dieser Anwendung gibt es einerseits Sensoren mit hoher stationärer Genauigkeit und andererseits Sensoren, welche transiente Vorgänge sehr gut detektieren können. Eine sehr einfache Methode stellt der komplementäre Filter dar. Dabei erfolgt eine Selektion der Sensorinformation im Frequenzbereich. Von jedem Sensor wird nur der
relevante Bereich des Spektrums verwendet (schneller Sensor ! hohe Frequenzen, langsamer Sensor ! niedrige Frequenzen). Diese gefilterten Signale werden anschließend addiert, um wieder den gesamten Frequenzbereich abzudecken. Eine weitere Möglichkeit zur Sensorfusion ist, ein Modell zu verwenden, welches die Dynamik zwischen dem schnellen und dem langsamen Sensor beschreibt. Mithilfe eines Kalman-Filters (KF) für dieses Modell wird ein Offset geschätzt, um welchen das schnelle Signal korrigiert wird. Dadurch wird es stationär auf das langsame Signal abgeglichen. Zwischen den verschiedenen Sensorsignalen auftretende Totzeiten stellen ein Problem bei der Sensorfusion dar. Diese kann beim komplementären Filter nicht kompensiert werden, das geschätzte Signal ist hier ebenfalls verzögert. Bei den Methoden, welche einen Kalman-Filter verwenden, kann die Totzeit im Modell berücksichtigt werden. Der Kalman-Filter mit Offsetkorrektur berechnet den Offset jedoch um die Totzeit verzögert, deshalb erfolgt die Korrektur ebenfalls verzögert. Das Problem mit der Totzeit bei der Offsetkorrektur soll die Methode mit Lookup-Table (LuT) lösen. Es wird wieder ein (verzögerter) Offset ermittelt, aber im Gegensatz zur letzten Methode wird damit eine LuT angepasst. Diese dient zur Berechnung
eines Offsets abhängig vom NOx-Wert. Am Ausgang wird das Signal anhand der LuT korrigiert. Im Rahmen dieser Arbeit werden die hier erwähnten Methoden analysiert und ihr Verhalten im dynamischen und stationären Bereich bewertet. Am Ende werden die unterschiedlichen Methoden gegenübergestellt, um ihre Vor- und Nachteile zu ermitteln.
Gunda Obereigner: Identifikation und Modellierung des menschlichen Fahrzeugfolgeverhaltens Präsentation
Die Performance einiger ADAS (=advanced driver assistant systems) lässt sich durch Schätzung des zukünftigen Verhaltens der umliegenden Verkehrsteilnehmer stark verbessern. Dazu ist aber ein Modell des menschlichen Fahrverhaltens notwendig. Diese Arbeit verfolgt zwei Ziele: Zum einen die Modellierung des menschlichen Fahrzeugfolgeverhaltens und zum anderen eine echtzeitfähige Schätzung des Fahrzeugfolgeverhaltens im laufenden Betrieb. Zur Modellierung des menschlichen Fahrzeugfolgeverhaltens werden zwei verschiedene Ansätze untersucht: ein statischer und ein dynamischer Ansatz. Diese beiden Ansätze werden mit Hilfe von Messdaten, welche im urbanen Straßenverkehr aufgezeichnet wurden, untersucht. Verschiedene Verteilungen des zeitlichen Abstandes zum vorausfahrenden Fahrzeug zeigen, dass dieser während einer Messfahrt variiert. Mit Hilfe des statischen Ansatzes erhält man aber während einer Messfahrt nur einen Wert für den zeitlichen Abstand zum vorausfahrenden Fahrzeug. Daher ist der statische Ansatz zur Modellierung des menschlichen Fahrzeugfolgeverhaltens ungeeignet. Der dynamische Ansatz liefert aufgrund besserer FIT-Werte des Abstandes und der Geschwindigkeit eine genauere Beschreibung des menschlichen Fahrzeugfolgeverhaltens als der statische Ansatz. Allerdings besteht auch hier wieder das Problem, dass die identifizierten Parameter, welche sich aufgrund des menschlichen Fahrverhaltens während der Fahrt ständig ändern, für jede Messfahrt konstant bleiben. Mit Hilfe des dynamischen Ansatzes und eines rekursiven least squares Algorithmus mit exponentiellem Vergessen ist es möglich, das menschliche Fahrzeugfolgeverhalten während der Fahrt für jede Zehntelsekunde zu schätzen. Somit steht ein sich stets anpassendes Modell des menschlichen Fahrzeugfolgeverhaltens zur Verfügung und Fahrassistenzsysteme können mit Hilfe dieses Modells und Messung der Position und Geschwindigkeit anderer Fahrzeuge das zukünftige Verhalten des Fahrzeuges prädizieren.
Lukas Salfinger: Kooperative Geschwindigkeitsregelung mittels Fahrzeug-Kommunikation Präsentation
Diese Bachelorarbeit befasst sich mit der kooperativen Geschwindigkeitsregelung eines Fahrzeuges. Autonome Fahrzeuge können die Sicherheit in Gefahrensituationen erhöhen, da Computersysteme Informationen schneller verarbeiten und auch schneller reagieren können. Aus diesem Grund ist es auch wichtig, die Informationen über andere Verkehrsteilnehmer mit in die Regelung eines Fahrzeuges mit einzubeziehen. Neue Technologien im Kommunikationsbereich ermöglichen die Kommunikation zwischen Fahrzeugen untereinander sowie auch gegebenfalls mit Infrastruktur (z. Bsp. Ampelanlagen). Der dabei stattfindende Informationsaustausch erlaubt es Fahrassistenzsystemen ihre Umgebung, sowie benachbarte Fahrzeuge, noch genauer zu lokalisieren und auch ihr zukünftiges Verhalten abzuschätzen. In dieser Arbeit wird angenommen, dass solche Kommunikationstechnologien im eigenen geregelten Fahrzeug, sowie in den umliegenden Fahrzeugen verfügbar sind. Basierend darauf lässt sich eine vorausschauende Längsdynamikregelung - die adaptive Geschwindigkeitsregelung - implementieren, welche aus den Informationen der umliegenden Fahrzeuge anhand eines Modells deren zukünftiges Verhalten schätzt. Als Regelungsstrategie kommt das Konzept der modellprädiktiven Regelung (MPC) zum Einsatz. Ziel ist es, dass das eigene Fahrzeug mit maximalem Komfort und in kürzester Zeit ein Ziel erreicht. Da es aber heutzutage fast keine Autofahrt ohne erhöhtes Verkehrsaufkommen gibt, müssen Sicherheitsgrenzen, wie Geschwindigkeitslimit und Minimalabstand auch in die Regelung mit eingebaut werden. Als Szenario wird eine ebene Straße mit einer Richtungsfahrbahn sowie mehreren Ampeln angenommen. Das MPC-Konzept erlaubt die Berücksichtigung von Beschränkungen. Die Simulation am Ende dieser Arbeit zeigt, dass das MPC-Prinzip mit einer Prädiktion der Geschwindigkeit eine sehr gute Möglichkeit ist, um ein Fahrzeug zu regeln.
Christian Scherrer: Extension of a gain-scheduling MPC approach for online implementation for non-linear systems Präsentation
This thesis deals with the theoretical background of two different MPC implementations. The first implementation is called “standard” MPC, the second one “rate-based” MPC. The standard formulation uses absolute values, the rate-based one the rate of change. Both methods use a constrained QP formulation, where an optimised input signal is calculated on every scanning step. Afterwards, two QP solvers are presented and their implementation outlined. Subsequently, the gain-scheduling implementation for rate-based explicit MPCs presented in [3] is described. Later on, it is extended and implemented for implicit standard formulation. A possible increase to the performance when following a reference trajectory due to the gain-scheduling method is evaluated. This approach is implemented for a SISO and MIMO model representation of a helicopter and a Diesel airpath model using the OMPC toolbox and Matlab. The simulation results of the helicopter model are compared to a standard PID regulator. The simulation results of the Diesel airpath model are compared to a C/GMRES implementation.
Hans Philipp Zeindl: Genauigkeit von CGM-Sensoren ohne Kalibration Präsentation
Damit Diabetespatienten ihre Therapie anpassen und den Therapieerfolg bewerten können, benötigen sie verlässliche Informationen über ihre Blutglukosekonzentration. Seit vielen Jahren ist die Standardmessungmethode dafür die Bestimmung der (normalerweise aus dem Finger entnommenen) Kapillarblutkonzentration mittels Streifenmessgeräten.Der große Nachteil von Glukosemessungen mittels Streifenmessgeräten ist, dass die Glukosekonzentration nur zu sehr wenigen Zeitpunkten bekannt ist, da typischerweise täglich nur 3–6 Messungen durchgeführt werden (da unkomfortabel und leicht schmerzhaft). Falls also zwischendurch sehr hohe Konzentrationen auftreten, bleibt dies mitunter von Patienten völlig unbemerkt. Eine Verbesserung diesbezüglich stellen sogenannte kontinuierliche Glukosesensoren (CGM) dar, welche unter Typ-1-Diabetikern immer populärer werden. Diese sind in der Lage zeitlich hochaufgelöste Informationen für die Glukoseverläufe zu liefern. Herzstück eines CGM ist im Normalfall ein nadelförmigen Glukosesensor, welcher mehrere Millimeter ins subkutane Gewebe gestochen wird und dort mehrere Tage (heutzutage normalerweise zwischen 7 und 14 Tagen) verbleibt. Der Sensor basiert in der Regel auf dem Enzym Glukose-Oxidase. Durch die am Sensor stattfindende Oxidation der Glukosemoleküle im subkutanen Gewebe kann (aufgrund der Intensität der registrierten elektrochemischen Reaktion) auf die Glukosekonzentration geschlossen werden. Da der CGM-Sensor ins subkutane Gewebe gestochen wird und dort mehrere Tage verbleibt, kommt es zu einem Wundheilungsprozess des Körpers, in dem dieser versucht, die vom Sensor verursachte Gewebeverletzung zu schließen. Dieser Prozess wird als ”Bio Fouling” bezeichnet und führt dazu, dass die Sensorsensitivität (gemessene Stromstärke als Funktion der Glukosekonzentration) sich über die Zeit verändert. Um dem Rechnung zu tragen, wird das CGM-Gerät öfters (normalerweise 2x pro Tag) mittels Blutglukosemessungen (mit einem Streifenmessgerät) kalibriert. Inzwischen gibt es allerdings ein erstes CGM-Gerät auf dem Markt, welches vollkommen auf diese Kalibration mittels Blutglukose verzichtet (Abbott Freestyle Libre). Kritikpunkt vieler Experten ist jedoch der, dass die Messgenauigkeit des CGM durch den Verzicht auf wiederholten Kalibrationsmessungen deutlich verschlechtert wird und dadurch Performance "verschenkt"wird.