Wissensdatenbank Wirtschaftsrecht

aktuelles Dokument: Ensemble Vergleiche
image4
image3
image2
image1
 Alle Kategorien:
  Forschungsdatenbank
  Lehrveranstaltungen
  Lexikon
  Literatur
  Rechtsgebiete
  Rechtsprechung
  Service
  Studium F H S
  Wissensmanagement
ich war hier: Vergleiche

Revision history for Ensemble Vergleiche


Revision [91658]

Last edited on 2018-10-01 23:22:53 by Tobias Dietz
Additions:
Die Arbeit enthält auch eine genauer Erläuterung der Ergebnisse, sowie weitere Informationen.
Deletions:
Die Arbeit enthält auch eine genauer Erläuterung der Ergebnisse, sowie weitere Informationen-


Revision [91657]

Edited on 2018-10-01 22:40:40 by Tobias Dietz
Additions:
- SVM erreicht mit 90,5 % Testenauigkeit ein wesentlich besseres Ergebnis, als Gradient Boosting. Die Trainingsgenauigkeit lag bei 98,0%.
Deletions:
- SVM erreicht mit 90,5 % Testenauigkeit ein wesentlich besseres Ergebnis, als Gradient Boosting. Die Trainingsgenauigkeit lag bei 98,8%.


Revision [91656]

Edited on 2018-10-01 22:40:05 by Tobias Dietz
Additions:
- Bagging besitzt mit Abstand die größte Trainingszeit
- Die Methode OLVQ1 lieferte mit 86,8 % ± 0,30 % ein um 1,4 % schlechteres Resultat als Gradient Boosting. Die Trainingsgenauigkeit lag bei 88,75 %.
- SVM erreicht mit 90,5 % Testenauigkeit ein wesentlich besseres Ergebnis, als Gradient Boosting. Die Trainingsgenauigkeit lag bei 98,8%.
Deletions:
- Bagging besitzt mit Abstand die größte Trainigszeit


Revision [91655]

Edited on 2018-10-01 22:31:28 by Tobias Dietz
Deletions:
{{files}}


Revision [91654]

Edited on 2018-10-01 22:31:04 by Tobias Dietz
Additions:
- Es wird verglichen wie sich Trainings- und Vorhersagezeit der Methoden mit zunehmende Anzahl an Iterationen verhalten.
- Bagging besitzt mit Abstand die größte Trainigszeit
- Random Forest besitzt durch die zufällige Merkmalsselektion die geringste Trainingszeit.
- Gradient Boosting benötigt mit Abstand die geringste Zeit um die Zielklassen vorherzusagen.
Deletions:
- Es wird verglichen wie sich Trainings- und Vorhersagezeit der Methoden mit zunehmende


Revision [91653]

Edited on 2018-10-01 22:22:59 by Tobias Dietz
Additions:
- Die y-Achse zeigt die Zeit, welche die jeweilige Methode benötigt hat.
- Die x-Achse zeigt die Anzahl an Iterationen.
- Es wird verglichen wie sich Trainings- und Vorhersagezeit der Methoden mit zunehmende
Deletions:
Die y-Achse zeigt die Zeit, welche die jeweilige Methode benötigt hat. Die x-Achse zeigt die Anzahl an Iterationen.
Somit wird verglichen wie sich die Trainings- und Vorhersagezeit durch eine steigende Anzahl an Iterationen erhöht.


Revision [91652]

Edited on 2018-10-01 22:19:45 by Tobias Dietz

No Differences

Revision [91651]

Edited on 2018-10-01 22:19:22 by Tobias Dietz
Additions:
- Die y-Achse zeigt die Genauigkeit der Methoden in % an. De Skala geht von 82 % - 88,5 %.
- Die rote Linie zeigt jeweils den Durchschnitt der fünf Algorithmen an.
- Gradient Boosting erreicht mit 88,2 % und einer Standardabweichung von 0,33 % die mit Abstand höchste Genauigkeit.
- Random Forest erreicht mit 86,4% und einer Standardabweichung von 0,26 % und erreicht damit den zweiten Platz.
Deletions:
Die y-Achse zeigt die Genauigkeit der Methoden in % an. De Skala geht von 82 % - 88,5 %. Die rote Linie zeigt jeweils den Durchschnitt der fünf Algorithmen an. Gradient Boosting erreicht mit 88,2 % und einer Standardabweichung von 0,33 % die mit Abstand höchste Genauigkeit. Gefolgt vom Random Forest mit 86,4% und einer Standardabweichung von 0,26 %.


Revision [91650]

Edited on 2018-10-01 22:12:27 by Tobias Dietz
Additions:
Die y-Achse zeigt die Genauigkeit der Methoden in % an. De Skala geht von 82 % - 88,5 %. Die rote Linie zeigt jeweils den Durchschnitt der fünf Algorithmen an. Gradient Boosting erreicht mit 88,2 % und einer Standardabweichung von 0,33 % die mit Abstand höchste Genauigkeit. Gefolgt vom Random Forest mit 86,4% und einer Standardabweichung von 0,26 %.
Die y-Achse zeigt die Zeit, welche die jeweilige Methode benötigt hat. Die x-Achse zeigt die Anzahl an Iterationen.
Somit wird verglichen wie sich die Trainings- und Vorhersagezeit durch eine steigende Anzahl an Iterationen erhöht.


Revision [91649]

Edited on 2018-10-01 19:27:16 by Tobias Dietz
Additions:
Folgende Kanäle wurden zur Merkmalsextraktion verwendet: FP1, FP2, C3, C4, O1, O2. Nähere Erläuterungen zu diesen und den folgenden Technischen Daten sind bei der Bachelorarbeit „Konzeption und Durchführung einer Nachtfahrtsimulationsstudie zur objektiven Hypovigilanzevaluation“ von Marc-Philipp Tews zu finden. Aus den Kanälen wurden 102 Spektralmerkmale gewonnen, die das dynamische Verhalten der EEG-Signale grob charakterisieren. Die Anzahl der Merkmale wurde so gewählt, dass sie der Anzahl des vorherigen Datensatzes (Kap. 3.1) möglichst ähnlich ist. Alle Merkmale sind Gleitkommazahlen. Der Datensatz beinhaltete 62.972 Merkmalsvektoren, wurde allerdings, um ihn besser mit dem Census-Datensatz vergleichen zu können, auf 45.214 Merkmalsvektoren verkürzt. Hierfür wurden alle Werte unter einem KSS von 6,9747 dem wachen Zustand zugeordnet und bekamen den Zielwert -1. Alle Werte ab einem KSS von 8,1509 wurden dem müden Zustand zugeordnet und bekamen den Zielwert 1. Alle Daten mit KSS Werten zwischen den beiden genannten Schwellwerten wurden von der Untersuchung ausgeschlossen." [1]
Die Graphiken stammen aus:
[1]Dietz T. (2018): Bachelorarbeit “Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden
Die Arbeit enthält auch eine genauer Erläuterung der Ergebnisse, sowie weitere Informationen-
Deletions:
Folgende Kanäle wurden zur Merkmalsextraktion verwendet: FP1, FP2, C3, C4, O1, O2. Nähere Erläuterungen zu diesen und den folgenden Technischen Daten sind bei der Bachelorarbeit „Konzeption und Durchführung einer Nachtfahrtsimulationsstudie zur objektiven Hypovigilanzevaluation“ von Marc-Philipp Tews zu finden. Aus den Kanälen wurden 102 Spektralmerkmale gewonnen, die das dynamische Verhalten der EEG-Signale grob charakterisieren. Die Anzahl der Merkmale wurde so gewählt, dass sie der Anzahl des vorherigen Datensatzes (Kap. 3.1) möglichst ähnlich ist. Alle Merkmale sind Gleitkommazahlen. Der Datensatz beinhaltete 62.972 Merkmalsvektoren, wurde allerdings, um ihn besser mit dem Census-Datensatz vergleichen zu können, auf 45.214 Merkmalsvektoren verkürzt. Hierfür wurden alle Werte unter einem KSS von 6,9747 dem wachen Zustand zugeordnet und bekamen den Zielwert -1. Alle Werte ab einem KSS von 8,1509 wurden dem müden Zustand zugeordnet und bekamen den Zielwert 1. Alle Daten mit KSS Werten zwischen den beiden genannten Schwellwerten wurden von der Untersuchung ausgeschlossen."
Dietz T. (2018): Bachelorarbeit “Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden


Revision [91648]

Edited on 2018-10-01 19:24:42 by Tobias Dietz
Additions:
"Für die Biosignaldaten werden die gleichen Vergleiche angesetzt wie für das vorherige Problem. Bei dem Datensatz handelt es sich um EEG- (Elektroenzephalogramm) Daten. Diese wurden in einer Studie zur Ermittlung von Müdigkeit während des Autofahrens erhoben. Die Studie wurde im Fahrsimulationslabor der Hochschule Schmalkalden im Januar 2018 durchgeführt und schloss 25 Probanden ein. Die Müdigkeit der Probanden wird durch den sogenannten KSS- Wert (Karolinska-Schläfrigkeits-Skala) beschrieben. Dieser Wert ist eine subjektive Selbsteinschätzung des Fahrers auf einer diskreten Skala zwischen 1 und 9, wobei 1 „äußerst wach“ und 9 „sehr schläfrig, große Mühe wach zu bleiben“ bedeutet. Der KSS-Wert wurde alle 5 Minuten vom Fahrer mündlich per Mikrofon mitgeteilt. Er gilt in der Forschung als relativ zuverlässig, da keiner die Müdigkeit einer Person so gut einschätzen kann, wie die Personen selbst. Eine Vernünftige aber fragwürdige Sache.
Folgende Kanäle wurden zur Merkmalsextraktion verwendet: FP1, FP2, C3, C4, O1, O2. Nähere Erläuterungen zu diesen und den folgenden Technischen Daten sind bei der Bachelorarbeit „Konzeption und Durchführung einer Nachtfahrtsimulationsstudie zur objektiven Hypovigilanzevaluation“ von Marc-Philipp Tews zu finden. Aus den Kanälen wurden 102 Spektralmerkmale gewonnen, die das dynamische Verhalten der EEG-Signale grob charakterisieren. Die Anzahl der Merkmale wurde so gewählt, dass sie der Anzahl des vorherigen Datensatzes (Kap. 3.1) möglichst ähnlich ist. Alle Merkmale sind Gleitkommazahlen. Der Datensatz beinhaltete 62.972 Merkmalsvektoren, wurde allerdings, um ihn besser mit dem Census-Datensatz vergleichen zu können, auf 45.214 Merkmalsvektoren verkürzt. Hierfür wurden alle Werte unter einem KSS von 6,9747 dem wachen Zustand zugeordnet und bekamen den Zielwert -1. Alle Werte ab einem KSS von 8,1509 wurden dem müden Zustand zugeordnet und bekamen den Zielwert 1. Alle Daten mit KSS Werten zwischen den beiden genannten Schwellwerten wurden von der Untersuchung ausgeschlossen."
=====Literatur=====
Dietz T. (2018): Bachelorarbeit “Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden


Revision [91647]

Edited on 2018-10-01 19:15:33 by Tobias Dietz
Additions:
{{image url="Train_pred_time.png" title="Trainings- und Vorhersage-zeiten", width="800"}}
Deletions:
{{image url="" title="Trainings- und Vorhersage-zeiten", width="800"}}


Revision [91646]

Edited on 2018-10-01 19:15:14 by Tobias Dietz
Additions:
{{image url="" title="Trainings- und Vorhersage-zeiten", width="800"}}


Revision [91645]

Edited on 2018-10-01 19:11:55 by Tobias Dietz
Additions:
{{image url="Vor_Nach_Optimierung.png" title="Vergleich vor und nach Optimierung der Parameter" alt="Vergleich der Ensemble Methoden" width="800"}}
Deletions:
{{image url="Vor_Nach_Optimierung.png" title="Vergleich vor und nach Optimierung der Parameter" alt="Vergleich der Ensemble Methoden" width= 500}}


Revision [91644]

Edited on 2018-10-01 19:11:24 by Tobias Dietz
Additions:
{{image url="Vor_Nach_Optimierung.png" title="Vergleich vor und nach Optimierung der Parameter" alt="Vergleich der Ensemble Methoden" width= 500}}
Deletions:
{{image url="Vor_Nach_Optimierung.png" title="Vergleich vor und nach Optimierung der Parameter" alt="Vergleich der Ensemble Methoden" with= 500}}


Revision [91643]

Edited on 2018-10-01 19:11:08 by Tobias Dietz
Additions:
{{image url="Vor_Nach_Optimierung.png" title="Vergleich vor und nach Optimierung der Parameter" alt="Vergleich der Ensemble Methoden" with= 500}}
Deletions:
{{image url="Vor_Nach_Optimierung.png" title="Vergleich vor und nach Optimierung der Parameter" alt="Vergleich der Ensemble Methoden"}}


Revision [91642]

Edited on 2018-10-01 19:10:47 by Tobias Dietz
Additions:
{{image url="Vor_Nach_Optimierung.png" title="Vergleich vor und nach Optimierung der Parameter" alt="Vergleich der Ensemble Methoden"}}


Revision [91641]

Edited on 2018-10-01 19:09:10 by Tobias Dietz
Additions:
=====Grundlage der Vergleiche=====
{{files}}


Revision [91639]

The oldest known version of this page was created on 2018-10-01 19:01:41 by Tobias Dietz
Valid XHTML   |   Valid CSS:   |   Powered by WikkaWiki