archetype | title | author | readings | tldr | outcomes | quizzes | assignments | youtube | fhmedia | ||||||||||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
lecture-cg |
Pruning |
Carsten Gips (HSBI) |
|
Pruning ist das Entfernen redundanter und irrelevanter Tests (Merkmale).
Irrelevante Merkmale spielen keine Rolle bei der Klassifikation, an jedem Ausgang
eines irrelevanten Merkmals findet sich exakt der selbe Baum. Diese Tests kann man
einfach entfernen und durch einen ihrer Teilbäume ersetzen; dadurch ändert sich
nicht die Klassifikation des Baumes.
Bei redundanten Tests sind alle Ausgänge bis auf einen noch mit "Nichtwissen" ("\*")
markiert. Hier kann man den Test durch den einen bekannten Ausgang ersetzen, wodurch
sich die Klassifikation ändert. Allerdings wird der Klassifikationsfehler nicht größer,
da man ja vorher nur für eine Ausprägung des redundanten Merkmals einen Baum hatte und
für die anderen jeweils mit "\*" antworten musste (d.h. hier stets einen Fehler gemacht
hatte).
Über die Transformationsregel kann man einfach die Reihenfolge von Tests im Baum ändern.
|
|
|
|
|
Baum:
\smallskip
\pause
\pause \bigskip \medskip
Allgemein:
- Sei
$\tilde{x}$ Weg zu Nichtendknoten$x_t$ - Baum dort
$\alpha/\tilde{x} = x_t(\alpha_1, \ldots, \alpha_{m_t})$ -
$x_t$ ist [bedingt irrelevant]{.alert} unter der Bedingung$\tilde{x}$ , wenn$\alpha_1 = \alpha_2 = \ldots = \alpha_{m_t}$ -
Vereinfachung: Ersetze in
$\alpha/\tilde{x}$ den Test$x_t$ durch$\alpha_1$
::: notes Anmerkung: Der durch das Entfernen von bedingt irrelevanten Attributen entstandene Baum hat exakt die selbe Aussage (Klassifikation) wie der Baum vor dem Pruning.
Anmerkung:
Baum:
\smallskip
\pause
\pause \bigskip \medskip
Allgemein:
- Sei
$\tilde{x}$ Weg zu Nichtendknoten$x_t$ - Baum dort
$\alpha/\tilde{x} = x_t(\ast, \ldots, \ast, \alpha_i, \ast, \ldots, \ast)$ \quad (mit$\alpha_i \neq \ast$ ) -
$x_t$ ist [bedingt redundant]{.alert} unter der Bedingung$\tilde{x}$ -
Vereinfachung: Ersetze in
$\alpha/\tilde{x}$ den Test$x_t$ durch$\alpha_i$
::: notes
Anmerkung:
Der durch das Entfernen von bedingt redundanten Attributen entstandene Baum
hat eine etwas andere Klassifikation als der Baum vor dem Pruning. Wo vorher
ein *
ausgegeben wurde, wird nach dem Pruning u.U. ein Klassensymbol
ausgegeben. Der Klassifikationsfehler erhöht sich aber nicht, da hier ein
*
wie ein falsches Klassensymbol zu werten ist.
Anmerkung:
- Pruning: Entfernen bedingt redundanter und irrelevanter Tests
- Transformationsregel zum Umbauen von Entscheidungsbäumen
::: slides
Unless otherwise noted, this work is licensed under CC BY-SA 4.0. :::