Skip to content

pln-fing-udelar/papers

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

31 Commits
 
 
 
 
 
 

Repository files navigation

NLP papers

IR para QA

Papers

General

  • ⭐ Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On meaning, form, and understanding in the age of data. In Proc. of ACL.

    • Abstract The success of the large neural language models on many NLP tasks is exciting. However, we find that these successes sometimes lead to hype in which these models are being described as “understanding” language or capturing “meaning”. In this position paper, we argue that a system trained only on form has a priori no way to learn meaning. In keeping with the ACL 2020 theme of “Taking Stock of Where We’ve Been and Where We’re Going”, we argue that a clear understanding of the distinction between form and meaning will help guide the field towards better science around natural language understanding.

    • tl;dr Comentan que, a partir de la mejora en muchas tareas de NLP luego de los modelos de lenguaje tipo BERT o GPT-2, hay mucho hype, y que mucho viene del hecho de no entender bien la diferencia entre forma lingüística y significado. Todavía no sabemos siquiera bien lo que aprenden los LM. Definen significado y aclaran la diferencia entre intención comunicativa y el significado convencional de una expresión. Presentan un ejemplo maravilloso, que llaman el Octopus test, donde hay dos náufragos en dos islas, que se comunican a través de un cable; un pulpo "pincha" el cable, y empieza a escucharlos. Luego de suficiente tiempo, el pulpo se pone en el medio y responde por uno de ellos. Analizan qué podría hacer en esas condiciones (es parecido a un Turing test, pero no exactamente igual). Proponen otros experimentos interesantes. Más en general, se plantean la pregunta de si "estamos subiendo la colina indicada": si lo vemos bottom-up, una cantidad de tareas se resuelven mejor. La pregunta es si estamos avanzando hacia hacia la comprensión o a pasar el Turing test o a lo que sea nuestro gran objetivo. Proponen algunas buenas prácticas para subir la colina indicada.

Adversarial Examples

  • Jia, R., & Liang, P. (2017). Adversarial examples for evaluating reading comprehension systems. arXiv preprint arXiv:1707.07328

    • Abstract Standard accuracy metrics indicate that reading comprehension systems are making rapid progress, but the extent to which these systems truly understand language remains unclear. To reward systems with real language understanding abilities, we propose an adversarial evaluation scheme for the Stanford Question Answering Dataset (SQuAD). Our method tests whether systems can answer questions about paragraphs that contain adversarially inserted sentences, which are automatically generated to distract computer systems without changing the correct answer or misleading humans. In this adversarial setting, the accuracy of sixteen published models drops from an average of 75% F1 score to 36%; when the adversary is allowed to add ungrammatical sequences of words, average accuracy on four models decreases further to 7%. We hope our insights will motivate the development of new models that understand language more precisely.

    • tl;dr: A partir del corpus SQuAD (que incluye un párrafo de Wikipedia, una pregunta y sus respuesta), los autores crean ejemplos adversarios agregando una oración adversaria al párrafo (concatenative adversaries), que buscan confundir a la pregunta, porque son parecidas (pero no contradicen) a la pregunta y sugieren una respuesta. Hacen caer el F1-score de 75% a 36%. Presentan también un método independiente del modelo, que agrega una oración aleatoria (pero con sentido) al párrafo.

Otros repositorios

About

Papers comentados sobre PLN - Machine Learning

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published