Estoy usando esta biblioteca para implementar un agente de aprendizaje.
He generado los casos de capacitación, pero no estoy seguro de cuáles son los conjuntos de validación y prueba.
El profesor dice:
El 70% deben ser casos de entrenamiento, el 10% serán casos de prueba y el 20% restante serán casos de validación.
editar
Tengo este código para entrenar, pero no tengo idea de cuándo dejar de entrenar.
def train(self, train, validation, N=0.3, M=0.1):
# N: learning rate
# M: momentum factor
accuracy = list()
while(True):
error = 0.0
for p in train:
input, target = p
self.update(input)
error = error + self.backPropagate(target, N, M)
print "validation"
total = 0
for p in validation:
input, target = p
output = self.update(input)
total += sum([abs(target - output) for target, output in zip(target, output)]) #calculates sum of absolute diference between target and output
accuracy.append(total)
print min(accuracy)
print sum(accuracy[-5:])/5
#if i % 100 == 0:
print 'error %-14f' % error
if ? < ?:
break
editar
Puedo obtener un error promedio de 0.2 con los datos de validación, después de quizás 20 iteraciones de entrenamiento, ¿eso debería ser 80%?
error promedio = suma de la diferencia absoluta entre el objetivo de validación y la salida, dada la entrada de datos de validación / tamaño de los datos de validación.
1
avg error 0.520395
validation
0.246937882684
2
avg error 0.272367
validation
0.228832420879
3
avg error 0.249578
validation
0.216253590304
...
22
avg error 0.227753
validation
0.200239244714
23
avg error 0.227905
validation
0.199875013416