Equipo 13 StressCalc (Ex-InteliQWOP)
Diego García M. 1162205
Joaquín León M. 1162101
Enrique Peña A. 1162110
a. Breve descripción del medio ambiente.
El medio se basa en el análisis de una base de datos que se llenó con información real proporcionada por estudiantes. La información contenida en la base de datos nos dice el nivel de estrés que maneja una persona dependiendo de varios síntomas. La base de datos tiene como columna a cada síntoma, y se llena con una de cuatro opciones (nada, pocas veces, ocasionalmente, frecuentemente). Y al final todos estos valores convergen al resultado final del nivel de estrés de la persona que puede ser: Nada, Poco, Regular y Alto.
b. Descripción detallada de la actividad o acción que va a aprender tu agente.
El sistema aprende a decidir el nivel de estrés que maneja una persona con base a todos los ejemplos que tiene en su base de datos y nos da un resultado sin tener que preguntar por todos los síntomas.
c. Solución planteada al problema utilizando Redes Neuronales. Describe con detalle cada elemento del planteamiento:
I. Patrones de aprendizaje:
Utilizamos los mismos patrones que para la actividad 3, a continuación mostramos dos ejemplos de patrones.
Ejemplos:
| A | P | P | P | M | M | A | P | M | P | P | P | M | P | M | P | P | M | Regular |
| |||||||||||||||||
| P | N | N | N | N | N | P | P | P | N | N | N | P | N | P | N | N | N | Poco | |||||||||||||||||||
Donde:
A = Alto
M = Medio
B = Bajo
N = Nada
II. Codificación de la salida de la red
La salidas en la encuesta era: Nada, bajo, medio y alto, Lo codificamos en valores decimales correspondientes a .1, .4, .6 y .9, esos valores son regresados por la red.
III. Tipo de red neuronal utilizada
Es una red neuronal multicapa que utiliza el algoritmo de Backpropagation.
IV. Número de capas y número de neuronas en cada capa
Tres capas. Entrada, hidden y output con 19, 3, y 1 neuronas en cada capa respectivamente.
V. Parámetros de la red
Tasa de aprendizaje es .1 y 10,000.
d. Ejemplos de corridas
Antes:
Output de neurona final: 0.4 output esperado: 0.6
Output de neurona final: 0.2 output esperado: 0.4
Output de neurona final: 0.4 output esperado: 0.6
Output de neurona final: 0.3 output esperado: 0.6
Output de neurona final: 0.1 output esperado: 0.9
Output de neurona final: 0.1 output esperado: 0.1
Output de neurona final: 0.3 output esperado: 0.4
Output de neurona final: 0.5 output esperado: 0.6
Output de neurona final: 0.2 output esperado: 0.4
Output de neurona final: 0.2 output esperado: 0.6
Despues
Output de neurona final: 0.1 output esperado: 0.1
Output de neurona final: 0.1 output esperado: 0.1
Output de neurona final: 0.4 output esperado: 0.4
Output de neurona final: 0.4 output esperado: 0.4
Output de neurona final: 0.6 output esperado: 0.6
Output de neurona final: 0.5 output esperado: 0.6
Output de neurona final: 0.2 output esperado: 0.4
Output de neurona final: 0.2 output esperado: 0.6
Output de neurona final: 0.6 output esperado: 0.6
Output de neurona final: 0.4 output esperado: 0.4
Output de neurona final: 0.6 output esperado: 0.6
e. Conclusiones después de la programación.
Concluimos que, usando redes neuronales, a diferencia de ID3, no importa tanto que haya habido errores en los patrones de entrenamiento, tampoco importa mucho que haya patrones que son muy similares o incluso que se contradigan. Todo esto significa que las redes neuronales son bastante más confiables y que soportan patrones mucho menos estables que otros algoritmos. La diferencia es que si es un poco más tardado y, en promedio, obtuvo un poco menos mejores resultados (considerando el número de iteraciones y patrones de entrenamiento que usamos).
No hay comentarios:
Publicar un comentario