Es una red neuronal simple que presenta pesos iniciales que rondan entre 0 y 1. Solo tiene presente una capa de neuronas con un máximo de un output, esto para conseguir funciones. Está implementado únicamente el descenso del gradiente como método de optimización. Como funciones de activación se tienen: -Sigmoide -Identidad -Tanh -Relu -LRelu