Wissensdatenbank Wirtschaftsrecht

aktuelles Dokument: AdaBoost
image4
image3
image2
image1
 Alle Kategorien:
  Forschungsdatenbank
  Lehrveranstaltungen
  Lexikon
  Literatur
  Rechtsgebiete
  Rechtsprechung
  Service
  Studium F H S
  Wissensmanagement
ich war hier: AdaBoost

Revision history for AdaBoost


Revision [91443]

Last edited on 2018-09-28 02:25:10 by Tobias Dietz
Deletions:
{{files}}


Revision [91442]

Edited on 2018-09-28 02:24:55 by Tobias Dietz
Additions:
Quelle: [4] vgl. Formeln in [5]
Deletions:
Quelle: [4] vgl. Formeln in [5].


Revision [91441]

Edited on 2018-09-28 02:24:40 by Tobias Dietz
Additions:
Danach wiederholt der Algorithmus //T// Iterationen das folgende Vorgehen:
Quelle: [4] vgl. Formeln in [5].
Deletions:
Danach wiederholt der Algorithmus //T// Iterationen das folgende Vorgehen:
Quelle: [4] vgl. Formeln in [5]


Revision [91440]

Edited on 2018-09-28 02:24:17 by Tobias Dietz
Additions:
Quelle: [4] vgl. Formeln in [5]


Revision [91439]

Edited on 2018-09-28 02:22:37 by Tobias Dietz
Additions:
Zu beginn bekommt jeder Merkmalsvektor //x// der Trainingsmenge die gleiche Gewichtung //D(x)//.
Danach wiederholt der Algorithmus //T// Iterationen das folgende Vorgehen:
1) Mit der Trainingsmenge und der zugehörigen Verteilung durch die Gewichtung erstellt der Basis-Lerner eine Hypothese //h//.
2) Aus dieser Hypthese wird der Gewichtet Reklassifikationsfehler //eta// gebildet.
3) Aus eta wird die Gewichtung der Hypothese gebildet, diese entspricht //alpha//.
4) Gewichtungen //D(x)// der Merkmalsvektoren werden aktualisiert.
Die Entscheidung beruht auf einem gewichteten Mehrheitsvotum durch die Signumfunktion.
{{image url="Error_Verteilung.png" title="Einfluss des Reklassifikationsfehlers" alt="text" width="800"}}
Die Abbildung zeigt, dass alpha für kleine Reklassifikationsfehler groß wird. Nimmt der Fehler zu, sinkt alpha.
Der zweite Teil der Abbildung zeigt, wie das Verhältnis zwischen //alpha// und der Verteilung //D(x)// ist, abhängig davon ob der Merkmalsvektor //x// richtig oder falsch klassifiziert wurde.
Deletions:
Zu beginn bekommt jeder Merkmalsvektor x der Trainingsmenge die gleiche Gewichtung D(x).
Danach wiederholt der Algorithmus T Iterationen das folgende Vorgehen:
1) Mit der Trainingsmenge und der zugehörigen Verteilung durch die Gewichtung erstellt der Basis-Lerner eine Hypothese h.
2) Aus dieser Hypthese wird der Gewichtet Reklassifikationsfehler eta gebildet.
3) Aus eta wird die Gewichtung der Hypothese gebildet, diese entspricht alpha.
4) Gewichtungen D(x) der Merkmalsvektoren werden aktualisiert.
Die Entscheidung beruht auf dem Gewichteten Mehrheitsvotum durch die Signumfunktion.
{{image url="Error_Verteilung.png" title="Einfluss des Reklassifikationsfehlers" alt="text"}}


Revision [91438]

Edited on 2018-09-28 02:12:12 by Tobias Dietz
Additions:
@@======AdaBoost======@@
{{image url="Error_Verteilung.png" title="Einfluss des Reklassifikationsfehlers" alt="text"}}
Deletions:
======AdaBoost======


Revision [91437]

Edited on 2018-09-28 02:08:08 by Tobias Dietz
Additions:
Die Entscheidung beruht auf dem Gewichteten Mehrheitsvotum durch die Signumfunktion.
{{files}}
Deletions:
Die Entscheidung beruht auf einer S


Revision [91436]

Edited on 2018-09-28 02:05:22 by Tobias Dietz
Additions:
1) Mit der Trainingsmenge und der zugehörigen Verteilung durch die Gewichtung erstellt der Basis-Lerner eine Hypothese h.
2) Aus dieser Hypthese wird der Gewichtet Reklassifikationsfehler eta gebildet.
3) Aus eta wird die Gewichtung der Hypothese gebildet, diese entspricht alpha.
4) Gewichtungen D(x) der Merkmalsvektoren werden aktualisiert.
Die Entscheidung beruht auf einer S
Deletions:
Mit der Trainingsmenge und der zugehörigen Verteilung durch die Gewichtung erstellt der Basis-Lerner eine Hypothese h.
Aus dieser Hyptohese wird der Gewichtet Reklassifikationsfehler gebildet.


Revision [91435]

Edited on 2018-09-27 21:38:27 by Tobias Dietz
Additions:
Danach wiederholt der Algorithmus T Iterationen das folgende Vorgehen:
Mit der Trainingsmenge und der zugehörigen Verteilung durch die Gewichtung erstellt der Basis-Lerner eine Hypothese h.
Aus dieser Hyptohese wird der Gewichtet Reklassifikationsfehler gebildet.
Deletions:
Mit der Trainingsmenge und der zugehörigen Verteilung durch die Gewichtung erstellt der Basis-Lerner eine Hypothese h\_t.


Revision [91434]

Edited on 2018-09-27 21:35:12 by Tobias Dietz
Additions:
Zu beginn bekommt jeder Merkmalsvektor x der Trainingsmenge die gleiche Gewichtung D(x).
Mit der Trainingsmenge und der zugehörigen Verteilung durch die Gewichtung erstellt der Basis-Lerner eine Hypothese h\_t.


Revision [91433]

Edited on 2018-09-27 19:12:31 by Tobias Dietz

No Differences

Revision [91432]

Edited on 2018-09-27 19:09:06 by Tobias Dietz
Additions:
Ein beispiel hierfür ist der Samme.R Algorithmus. Dieser hat eine ähnliche Abfolge wie der AdaBoost-Algorithmus, reagiert aber stärker auf die Fehler der vorherigen Hypothesen. Genauere Erläuterungen zu Funktionsweise und mathematischen Hintergrund sind in [5] zu finden. Der Ablauf ist ebenfalls in [4] beschrieben.
Deletions:
Ein beispiel hierfür ist der Samme.R Algorithmus. Dieser hat eine ähnliche Abfolge wie der AdaBoost-Algorithmus, reagiert aber stärker auf die Fehler der vorherigen Hypothesen. Genauere Erläuterungen hierzu finden sich in [5], bzw. sind in [4] beschrieben.


Revision [91431]

Edited on 2018-09-27 19:06:59 by Tobias Dietz
Additions:
Diese Version kann keine Multi-klassen-Probleme lösen.Die Lösungsansätze verfolgen entweder one-versus-all oder one-versus-one Methoden zur Klassifikation. Hierfür werden die Gewichtungen und die Hypothesen anders berechnet.
Ein beispiel hierfür ist der Samme.R Algorithmus. Dieser hat eine ähnliche Abfolge wie der AdaBoost-Algorithmus, reagiert aber stärker auf die Fehler der vorherigen Hypothesen. Genauere Erläuterungen hierzu finden sich in [5], bzw. sind in [4] beschrieben.
Deletions:
Diese Version kann keine Multi-klassen-Probleme lösen. Hierfür gibt es jedoch Erweiterungen in welchen der Algorithmus trainiert wird. Hierfür wird die Funktion der Gewichtung angepasst und die Hypothese. Die Lösungsansätze verfolgen entweder one-versus-all oder one-versus-one Methoden zur Klassifikation.
Ein beispiel hierfür ist der Samme.R Algorithmus. Genauere Erläuterungen hierzu finden sich in [5], bzw. sind in [4] beschrieben.


Revision [91430]

Edited on 2018-09-27 19:02:33 by Tobias Dietz
Additions:
Die Idee hinter AdaBoost ist das erstellen mehrere Modelle mit der gleichen Hypothesenklasse als Grundlage. Dies bedeutet die Basis jedes Modells ist beispielsweise immer der gleiche Entscheidungsbaum mit den gleichen Parametern. Die verschiedenen Modelle werden dabei so trainiert, dass das jetzige Modell adaptiv auf den Fehler des vorherigen Modells reagiert. Am Ende bilden alle Modelle durch ihre Genauigkeit gewichtet eine Entscheidung. So versucht der Algorithmus, durch viele Iterationen, den Gesamtfehler zu minimieren und damit eine optimale Entscheidung zu treffen.[1][2][3]
Diese Version kann keine Multi-klassen-Probleme lösen. Hierfür gibt es jedoch Erweiterungen in welchen der Algorithmus trainiert wird. Hierfür wird die Funktion der Gewichtung angepasst und die Hypothese. Die Lösungsansätze verfolgen entweder one-versus-all oder one-versus-one Methoden zur Klassifikation.
Ein beispiel hierfür ist der Samme.R Algorithmus. Genauere Erläuterungen hierzu finden sich in [5], bzw. sind in [4] beschrieben.
[5] Zhu J., Zou H., Rosset S., Hastie T. (2006): Multi-class AdaBoost; 1085 South University
Deletions:
Die Idee hinter AdaBoost ist das erstellen mehrere Modelle mit der gleichen Hypothesenklasse als Grundlage. Dies bedeutet die Basis jedes Modells ist beispielsweise immer der gleiche Entscheidungsbaum mit den gleichen Parametern. Die verschiedenen Modelle werden dabei so trainiert, dass das jetzige Modell adaptiv auf den Fehler des vorherigen Modells reagiert. Am Ende bilden alle Modelle durch ihre Genauigkeit gewichtet eine Entscheidung. So versucht der Algorithmus, durch viele Iterationen, den Gesamtfehler zu minimieren und damit eine optimale Entscheidung zu treffen.
AdaBoost, wie vorgestellt, keine Multi-klassen-Probleme lösen. Hierfür gibt es jedoch Erweiterungen in welchen der Algorithmus trainiert wird. Hierfür wird die Funktion der Gewichtung angepasst und die Hypothese. Die Lösungsansätze verfolgen entweder one-versus-all oder one-versus-one Methoden zur Klassifikation.
Ein beispiel hierfür ist der Samme.R Algorithmus. Genauere Erläuterungen hierzu finden sich in [] und [].


Revision [91429]

Edited on 2018-09-27 19:00:06 by Tobias Dietz
Additions:
AdaBoost, wie vorgestellt, keine Multi-klassen-Probleme lösen. Hierfür gibt es jedoch Erweiterungen in welchen der Algorithmus trainiert wird. Hierfür wird die Funktion der Gewichtung angepasst und die Hypothese. Die Lösungsansätze verfolgen entweder one-versus-all oder one-versus-one Methoden zur Klassifikation.
Deletions:
Der vorgestellte Algorithmus kann keine Multi-klassen-Probleme lösen. Hierfür gibt es jedoch Erweiterungen in welchen der Algorithmus trainiert wird. Hierfür wird die Funktion der Gewichtung angepasst und die Hypothese. Die Lösungsansätze verfolgen entweder one-versus-all oder one-versus-one Methoden zur Klassifikation.


Revision [91428]

Edited on 2018-09-27 18:59:14 by Tobias Dietz
Additions:
Quelle: [4] vgl.[1][3]
Deletions:
Quelle:[4] vgl.[1][3]


Revision [91427]

Edited on 2018-09-27 18:57:37 by Tobias Dietz
Additions:
[4] Dietz T. (2018): Bachelorarbeit “Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden
Deletions:
[4]Dietz T. (2018): Bachelorarbeit “Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden


Revision [91426]

Edited on 2018-09-27 18:57:27 by Tobias Dietz
Additions:
{{image url="AdaBoost.PNG" title="AdaBoost-Algorithmus" alt="text"}}
Quelle:[4] vgl.[1][3]
[4]Dietz T. (2018): Bachelorarbeit “Automatisches rechnerbasiertes Lernen mit Ensemble-Methoden ”, Hochschule Schmalkalden
Deletions:
{{image url="AdaBoost.PNG" title="AdaBoost-Algorithmus" alt="text"}}


Revision [91425]

Edited on 2018-09-27 16:42:07 by Tobias Dietz
Deletions:
{{files}}


Revision [91424]

Edited on 2018-09-27 16:41:32 by Tobias Dietz
Additions:
[1] Freund Y., Schapire R. E. (1999): A Short Introduction to Boosting; AT & T Labs - Research
[2] Schapire R. E. (unbekannt): Explaining AdaBoost; Princeton University, Dept. of Computer Science
[3] Zhou, Zhi-Hua (2012): Ensemble Methods: Foundations and Algorithms; Taylor & Francis Ltd


Revision [91423]

Edited on 2018-09-27 16:32:14 by Tobias Dietz
Additions:
{{image url="AdaBoost.PNG" title="AdaBoost-Algorithmus" alt="text"}}
Deletions:
{{image url="" title="text" alt="text"}}


Revision [91422]

Edited on 2018-09-27 16:30:56 by Tobias Dietz
Additions:
{{files}}


Revision [91421]

Edited on 2018-09-27 16:26:26 by Tobias Dietz
Additions:
Die Idee hinter AdaBoost ist das erstellen mehrere Modelle mit der gleichen Hypothesenklasse als Grundlage. Dies bedeutet die Basis jedes Modells ist beispielsweise immer der gleiche Entscheidungsbaum mit den gleichen Parametern. Die verschiedenen Modelle werden dabei so trainiert, dass das jetzige Modell adaptiv auf den Fehler des vorherigen Modells reagiert. Am Ende bilden alle Modelle durch ihre Genauigkeit gewichtet eine Entscheidung. So versucht der Algorithmus, durch viele Iterationen, den Gesamtfehler zu minimieren und damit eine optimale Entscheidung zu treffen.
Deletions:
Die Idee hinter AdaBoost ist das erstellen mehrere Modelle mit der gleichen Hypothesenklasse als Grundlage. Dies bedeutet die Basis jedes Modells ist beispielsweise immer ein Entscheidungsbaum mit immer der gleichen Tiefe. Diese werden kombiniert um durch gewichtetes Wählen eine möglichst exakte Entscheidung zu treffen.


Revision [91420]

Edited on 2018-09-27 16:20:13 by Tobias Dietz
Additions:
Die Idee hinter AdaBoost ist das erstellen mehrere Modelle mit der gleichen Hypothesenklasse als Grundlage. Dies bedeutet die Basis jedes Modells ist beispielsweise immer ein Entscheidungsbaum mit immer der gleichen Tiefe. Diese werden kombiniert um durch gewichtetes Wählen eine möglichst exakte Entscheidung zu treffen.
{{image url="" title="text" alt="text"}}
Der vorgestellte Algorithmus kann keine Multi-klassen-Probleme lösen. Hierfür gibt es jedoch Erweiterungen in welchen der Algorithmus trainiert wird. Hierfür wird die Funktion der Gewichtung angepasst und die Hypothese. Die Lösungsansätze verfolgen entweder one-versus-all oder one-versus-one Methoden zur Klassifikation.
Ein beispiel hierfür ist der Samme.R Algorithmus. Genauere Erläuterungen hierzu finden sich in [] und [].
Deletions:
{{image url="url" title="text" alt="text"}}


Revision [91408]

Edited on 2018-09-27 15:31:55 by Tobias Dietz
Additions:
======AdaBoost======

=====Idee=====

=====Algorithmus=====

{{image url="url" title="text" alt="text"}}

=====Erklärungen=====

=====Ausblick=====

=====Literatur=====
Deletions:
============ A


Revision [91406]

The oldest known version of this page was created on 2018-09-27 15:21:44 by Tobias Dietz
Valid XHTML   |   Valid CSS:   |   Powered by WikkaWiki