-
Notifications
You must be signed in to change notification settings - Fork 0
/
ej_cap2_resultados_aprendizaje.txt
87 lines (80 loc) · 4.55 KB
/
ej_cap2_resultados_aprendizaje.txt
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
Error de aprendizaje
Se definio g = disc w_1 - disc w_3
Analisis de aprendizaje para x_1 de w_1:
La muestra=(-5.01) pertenece a la clase w_1, porque g = 4.21
La muestra=(-5.43) pertenece a la clase w_1, porque g = 4.57
La muestra=(1.08) pertenece a la clase w_1, porque g = 0.16
La muestra=(0.86) pertenece a la clase w_1, porque g = 0.27
La muestra=(-2.67) pertenece a la clase w_1, porque g = 2.41
La muestra=(4.94) pertenece a la clase w_3, porque g = -1.32
La muestra=(-2.51) pertenece a la clase w_1, porque g = 2.29
La muestra=(-2.25) pertenece a la clase w_1, porque g = 2.12
La muestra=(5.56) pertenece a la clase w_3, porque g = -1.48
La muestra=(1.03) pertenece a la clase w_1, porque g = 0.19
El error de aprendizaje para el feature x_1 de w_1 es del 20%
La cota P(error) dada por Bhattacharyya es <= 0.3904
Analisis de aprendizaje para x_2 de w_1:
La muestra=(-8.12) pertenece a la clase w_1, porque g = 4.04
La muestra=(-3.48) pertenece a la clase w_1, porque g = 1.15
La muestra=(-5.52) pertenece a la clase w_1, porque g = 2.28
La muestra=(-3.78) pertenece a la clase w_1, porque g = 1.30
La muestra=(0.63) pertenece a la clase w_3, porque g = -0.45
La muestra=(3.29) pertenece a la clase w_3, porque g = -0.99
La muestra=(2.09) pertenece a la clase w_3, porque g = -0.79
La muestra=(-2.13) pertenece a la clase w_1, porque g = 0.52
La muestra=(2.86) pertenece a la clase w_3, porque g = -0.93
La muestra=(-3.33) pertenece a la clase w_1, porque g = 1.07
El error de aprendizaje para el feature x_2 de w_1 es del 40%
La cota P(error) dada por Bhattacharyya es <= 0.3217
Analisis de aprendizaje para x_3 de w_1:
La muestra=(-3.68) pertenece a la clase w_1, porque g = 0.52
La muestra=(-3.54) pertenece a la clase w_1, porque g = 0.53
La muestra=(1.66) pertenece a la clase w_1, porque g = 0.27
La muestra=(-4.11) pertenece a la clase w_1, porque g = 0.50
La muestra=(7.39) pertenece a la clase w_3, porque g = -1.04
La muestra=(2.08) pertenece a la clase w_1, porque g = 0.21
La muestra=(-2.59) pertenece a la clase w_1, porque g = 0.55
La muestra=(-6.94) pertenece a la clase w_1, porque g = 0.22
La muestra=(-2.26) pertenece a la clase w_1, porque g = 0.55
La muestra=(4.33) pertenece a la clase w_3, porque g = -0.21
El error de aprendizaje para el feature x_3 de w_1 es del 20%
La cota P(error) dada por Bhattacharyya es <= 0.2924
Analisis de aprendizaje para x_1 de w_3:
La muestra=(5.35) pertenece a la clase w_3, porque g = -1.43
La muestra=(5.12) pertenece a la clase w_3, porque g = -1.37
La muestra=(-1.34) pertenece a la clase w_1, porque g = 1.52
La muestra=(4.48) pertenece a la clase w_3, porque g = -1.19
La muestra=(7.11) pertenece a la clase w_3, porque g = -1.78
La muestra=(7.17) pertenece a la clase w_3, porque g = -1.79
La muestra=(5.75) pertenece a la clase w_3, porque g = -1.52
La muestra=(0.77) pertenece a la clase w_1, porque g = 0.32
La muestra=(0.90) pertenece a la clase w_1, porque g = 0.25
La muestra=(3.52) pertenece a la clase w_3, porque g = -0.87
El error de aprendizaje para el feature x_1 de w_3 es del 30%
La cota P(error) dada por Bhattacharyya es <= 0.3904
Analisis de aprendizaje para x_2 de w_3:
La muestra=(2.26) pertenece a la clase w_3, porque g = -0.83
La muestra=(3.22) pertenece a la clase w_3, porque g = -0.99
La muestra=(-5.31) pertenece a la clase w_1, porque g = 2.15
La muestra=(3.42) pertenece a la clase w_3, porque g = -1.01
La muestra=(2.39) pertenece a la clase w_3, porque g = -0.85
La muestra=(4.33) pertenece a la clase w_3, porque g = -1.11
La muestra=(3.97) pertenece a la clase w_3, porque g = -1.07
La muestra=(0.27) pertenece a la clase w_3, porque g = -0.34
La muestra=(-0.43) pertenece a la clase w_3, porque g = -0.12
La muestra=(-0.36) pertenece a la clase w_3, porque g = -0.15
El error de aprendizaje para el feature x_2 de w_3 es del 10%
La cota P(error) dada por Bhattacharyya es <= 0.3217
Analisis de aprendizaje para x_3 de w_3:
La muestra=(8.13) pertenece a la clase w_3, porque g = -1.29
La muestra=(-2.66) pertenece a la clase w_1, porque g = 0.55
La muestra=(-9.87) pertenece a la clase w_3, porque g = -0.36
La muestra=(5.19) pertenece a la clase w_3, porque g = -0.41
La muestra=(9.21) pertenece a la clase w_3, porque g = -1.68
La muestra=(-0.98) pertenece a la clase w_1, porque g = 0.51
La muestra=(6.65) pertenece a la clase w_3, porque g = -0.81
La muestra=(2.41) pertenece a la clase w_1, porque g = 0.16
La muestra=(-8.71) pertenece a la clase w_3, porque g = -0.10
La muestra=(6.43) pertenece a la clase w_3, porque g = -0.74
El error de aprendizaje para el feature x_3 de w_3 es del 30%
La cota P(error) dada por Bhattacharyya es <= 0.2924