Skip to content
Experimento usando tres modelos de redes neuronales artificiales en el ámbito del manejo del lenguaje natural
Branch: master
Clone or download
Fetching latest commit…
Cannot retrieve the latest commit at this time.
Permalink
Type Name Latest commit message Commit time
Failed to load latest commit information.
dnc
familytask
lstm
memn2n
.gitignore
LICENSE.md
README.md

README.md

EXPERIMENTACIÓN Y COMPARATIVA DE DIFERENTES MODELOS DE REDES NEURONALES ARTIFICIALES PARA EL PROCESAMIENTO DEL LENGUAJE NATURAL

Trabajo de título del grado en ingeniería informática

Julio de 2017

License: CC BY-NC-ND 4.0

El procesamiento de lenguaje natural ha sido tradicionalmente una tarea compleja y poco trivial a la hora de diseñar algoritmos para su procesamiento. Gracias a la inteligencia artificial, se han conseguido grandes avances en este entorno y se han propuesto cada vez más modelos que hacen frente a los problemas normalmente poco tratables.

Este trabajo propone experimentar y comparar tres modelos de redes neuronales artificiales que han tenido bastante éxito en el procesamiento de lenguaje natural: LSTM (Long Short-Term Memory), MemN2N (modelo propuesto por Facebook) y DNC (modelo propuesto por Google). Para ello se han adaptado estos modelos optimizados a un ámbito concreto con el objetivo de comparar los resultados de cada uno.

You can’t perform that action at this time.