- AutorIn
- Miriam Goldammer
- Titel
- Automatisierte intelligente Schlafstadienklassifikation anhand kardiorespiratorischer Signale
- Zitierfähige Url:
- https://nbn-resolving.org/urn:nbn:de:bsz:14-qucosa2-836124
- Übersetzter Titel (EN)
- Automated intelligent sleep stage classification from cardiorespiratory signals
- Erstveröffentlichung
- 2023
- Datum der Einreichung
- 02.09.2022
- Datum der Verteidigung
- 09.12.2022
- Abstract (DE)
- Der Goldstandard der klinischen Schlafauswertung basiert auf der Polysomnographie. Den ersten Schritt dieser Auswertung bildet die manuelle Annotation von Schlafstadien aus dem Polysomnogramm. Diese Messung ist jedoch aufwendig, teuer und unbequem für den Patienten. Deshalb wird bereits seit zwei Jahrzehnten an Möglichkeiten geforscht, Schlafstadien anhand von vergleichsweise einfach messbaren Biosignalen automatisiert zu klassifizieren. Diese Arbeit basiert auf der Hypothese, dass durch die Kombination von kardiorespiratorischen Signalen und maschinellem Lernen eine Schlafstadienklassifikation mit sehr guter Übereinstimmung zur manuellen Annotation möglich ist. Im Rahmen dieser Arbeit wurden verschiedene Klassifikatoren für die automatisierte Schlafstadienklassifikation anhand kardiorespiratorischer Signale optimiert. Ein besonderes Augenmerk lag dabei auf der Verbesserung der Klassifikationsgüte, Bewertung der Zuverlässigkeit und Übertragbarkeit der Ergebnisse. Die Untersuchungen wurden hauptsächlich mit Daten aus der Sleep Heart Health Study durchgeführt. Sie enthält Polysomnogramme inkl. manueller Schlafstadienannotationen von 5804 Studienteilnehmern. Aus diesen Aufzeichnungen wurden kardiorespiratorische Signale (Elektrokardiogramm und respiratorisches Induktionsplethysmogramm) und Annotationen zum Training der Klassifikatoren extrahiert. Im Elektrokardiogramm wurden die Intervalle zwischen den R-Zacken detektiert und zu RRI-Zeitreihen vorverarbeitet. Ebenso wurden die Intervalle zwischen Atemzügen aus dem respiratorischen Induktionsplethysmogramm zu BBI-Zeitreihen vorverarbeitet. Aus RRI- und BBI-Zeitreihen erfolgte schließlich die Berechnung von Merkmalen der Atem- und Herzratenvariabilität. Zunächst erfolgte eine Untersuchung zur Individualisierung von Klassifikatoren. Dafür wurde ein Random-Forest-Klassifikator mit den Merkmalen der Atem- und Herzratenvariabilität für die Schlafstadienklassifikation trainiert. Die Umsetzung der Individualisierung erfolgte mithilfe von kleinen optimierten Trainingssubsets je Polysomnogramm, sodass ein individualisierter Klassifikator je Studienteilnehmer entstand. Die Ergebnisse dieses individualisierten Ansatzes wurden mit einem generalisierten Modell verglichen, trainiert mit allen verfügbaren Trainingsdaten. Aufgrund des in der Literatur ersichtlichen großen Potenzials folgte danach der Wechsel von merkmalsbasierten zu signalbasierten Klassifikatoren. Hier kam zunächst ein reines Faltungsnetz (engl. Convolutional Neural Network) zum Einsatz, dass je Schlafepoche ein Segment der RRI-Zeitreihe mit einer Dauer von 300 s als Eingabe erhält und daraus Schlafstadien klassifiziert. Dieses Modell wurde später um die BBI-Zeitreihe als zweite Eingabe erweitert und um rekurrente Schichten ergänzt, sodass ein Convolutional Recurrent Neural Network entstand. Mit diesem optimierten Modell wurde die Zuverlässigkeit der Klassifikation bewertet. Ebenso erfolgte eine Untersuchung der Übertragbarkeit der Modellarchitektur bezüglich Variationen in den Eingabedaten und notwendiger Datenmenge für das Training. Abschließend wurde die Übertragbarkeit des Modells anhand von externen Testdaten, anderen Eingangssignalen und weiteren Vorverarbeitungsvarianten überprüft. Für die Individualisierung war bei einer leave-one-out Kreuzvalidierung eine Verbesserung der Klassifikationsgüte anhand des mittleren Cohens Kappa von 0,46 auf 0,61 für die Unterscheidung von Wachzustand, Leichtschlaf, Tiefschlaf und REM-Schlaf zu beobachten. Mit dem Convolutional Recurrent Neural Network konnte für dieselbe Unterscheidung ein mittleres Cohens Kappa von 0,68 über 998 unabhängige Test-Polysomnogramme erreicht werden. Für die Unterscheidung von Wachzustand, REM-Schlaf und NonREM-Schlaf wurde mit einem mittleren Cohens Kappa von 0,8 eine fast-perfekte Übereinstimmung mit der manuellen Annotation erzielt. Diese automatisierte Schlafstadienklassifikation ließ sich zuverlässig in klinisch relevante Schlafmerkmale umrechnen und mit Variationen der Eingabedaten reproduzieren. Auch die Übertragung auf Pulsoximetrie-Signale war ohne Qualitätsverlust möglich. Mit der Anpassung der Vorverarbeitung konnte eine weitere Verbesserung der Klassifikationsgüte erreicht werden. Auf externen Testdaten konnten mit dem Modell ebenso gute Ergebnisse erreicht werden wie auf den internen Testdaten. Anhand der Individualisierung durch optimierte Trainingsdaten wurde ein großes Potenzial für vergleichsweise einfache merkmalsbasierte Klassifikatoren aufgezeigt. Mit dem Convolutional Recurrent Neural Network konnten sehr gute Klassifikationsergebnisse, auch im Vergleich zum aktuellen Stand der Forschung, erreicht werden. Aufgrund der hohen Zuverlässigkeit der Klassifikation und Übertragbarkeit der Architektur sind mit einem solchen Klassifikator viele weitere klinische Anwendungsszenarien denkbar.
- Abstract (EN)
- Analysis of the polysomnography is the gold standard of clinical sleep evaluation. Manual annotation of sleep stages from the polysomnogram is the first step of this analysis. However, this measurement is time-consuming, expensive, and uncomfortable for the patient. Therefore, for the last two decades, research has been conducted towards sleep stage classification from comparably easily measurable biosignals. This work is based on the hypothesis that by combining cardiorespiratory signals and machine learning, sleep stage classification with very good agreement to manual annotation is possible. In this thesis, several classifiers have been optimized for automated sleep staging from cardiorespiratory signals. Special attention was paid to improvement of classification quality, evaluation of model reliability and transferability of results. Mainly, investigations were conducted on data from the Sleep Heart Health Study. It contains polysomnograms of 5804 study participants including manual sleep stage annotations. From these measurements, cardiorespiratory signals (electrocardiogram and respiratory inductance plethysmogram) and annotations were extracted for training of classifiers. In the electrocardiogram, intervals between R-peaks were detected and processed into RRI time series. Similarly, breath to breath intervals were detected from the respiratory inductance plethysmogram and processed into BBI time series. Finally, features were calculated from the breath and heart rate variability. Firstly, an investigation of individualisation was conducted. To that end, a Random Forest classifier was trained for sleep staging on breath and heart rate variability features. It yielded individualisation by utilizing small, optimized training subsets for each participant, therefore resulting in an individualized classifier per participant. The results were compared to a generalised reference classifier trained on the complete training set. In the following, the research focus changed from feature-based classifiers to signal-based classifiers, due to their outstanding potential evident from literature. Firstly, a mere Convolutional Neural Network was implemented, which classified sleep stages from an input of RRI time series segments with 300 s duration. Subsequently, this model was expanded by BBI time series segments and recurrent layers, resulting in a Convolutional Recurrent Neural Network. This optimized model was evaluated concerning its reliability. Similarly, transferability of model architecture, robustness to variations in input data, different input signals and preprocessing, and necessary amount of training data were investigated. Finally, transferability of the trained model to external data was tested. For individualisation, leave-one-out cross validation demonstrated improvements in classification quality by mean Cohen’s kappa from 0,46 to 0,61 for differentiating wake, light sleep, deep sleep and REM sleep. With the Convolutional Recurrent Neural Network, mean Cohen’s kappa improved to 0,68 on 998 test participants. For mere differentiation between wake, REM sleep and Non-REM sleep, the model yielded mean Cohen’s kappa of 0,8, which transmits to almost perfect agreement with manual annotation. Reliable clinical sleep features were calculated from this automated sleep stage classification. The results were transferable to variations of the original input data, different input signals from pulse oximetry and different preprocessing versions. Classification of external test data was equally good as internal test data. Individualisation by optimized training data shows great potential for comparably simple feature-based classifiers. The Convolutional Recurrent Neural Network yielded very good results, even compared to the current state of research. Due to the high reliability of the model and transferability of its architecture, there are many more possible clinical applications.
- Freie Schlagwörter (DE)
- Schlafstadien, Klassifikation, Maschinelles Lernen, Biosignalverarbeitung, kardiorespiratorische Signale
- Freie Schlagwörter (EN)
- sleep stages, classification, machine learning, biosignals, cardiorespiratory signals
- Klassifikation (DDC)
- 620
- 610
- Klassifikation (RVK)
- WX 3354
- YH 4204
- YH 4214
- GutachterIn
- Prof. Dr. Hagen Malberg
- Prof. Dr. Thomas Penzel
- Prof. Dr. Christoph Schöbel
- Den akademischen Grad verleihende / prüfende Institution
- Technische Universität Dresden, Dresden
- Förder- / Projektangaben
- Europäischer Sozialfonds ESF-Promotionsstipendium als Landesinnovationspromotion Intelligente Therapieempfehlungssysteme
(iteras)
ID: 100327771 - Europäischer Fonds für regionale Entwicklung Tele-Schlaf-Medizin
(TSM)
ID: 100346021 - Version / Begutachtungsstatus
- publizierte Version / Verlagsversion
- URN Qucosa
- urn:nbn:de:bsz:14-qucosa2-836124
- Veröffentlichungsdatum Qucosa
- 20.02.2023
- Dokumenttyp
- Dissertation
- Sprache des Dokumentes
- Deutsch
- Lizenz / Rechtehinweis
- CC BY-NC 4.0