Skip to content

Latest commit

History

History
41 lines (28 loc) 路 2.4 KB

bertology.md

File metadata and controls

41 lines (28 loc) 路 2.4 KB

BERTolog铆a

Hay un creciente campo de estudio empe帽ado en la investigaci贸n del funcionamiento interno de los transformers de gran escala como BERT (que algunos llaman "BERTolog铆a"). Algunos buenos ejemplos de este campo son:

Para asistir al desarrollo de este nuevo campo, hemos incluido algunas features adicionales en los modelos BERT/GPT/GPT-2 para ayudar a acceder a las representaciones internas, principalmente adaptado de la gran obra de Paul Michel (https://arxiv.org/abs/1905.10650):

  • accediendo a todos los hidden-states de BERT/GPT/GPT-2,
  • accediendo a todos los pesos de atenci贸n para cada head de BERT/GPT/GPT-2,
  • adquiriendo los valores de salida y gradientes de las heads para poder computar la m茅trica de importancia de las heads y realizar la poda de heads como se explica en https://arxiv.org/abs/1905.10650.

Para ayudarte a entender y usar estas features, hemos a帽adido un script espec铆fico de ejemplo: bertology.py mientras extraes informaci贸n y cortas un modelo pre-entrenado en GLUE.