Skip to content

Latest commit

History

History
292 lines (222 loc) 路 10.9 KB

multiple_choice.md

File metadata and controls

292 lines (222 loc) 路 10.9 KB

Selecci贸n m煤ltiple

La tarea de selecci贸n m煤ltiple es parecida a la de responder preguntas, con la excepci贸n de que se dan varias opciones de respuesta junto con el contexto. El modelo se entrena para escoger la respuesta correcta entre varias opciones a partir del contexto dado.

Esta gu铆a te mostrar谩 como hacerle fine-tuning a BERT en la configuraci贸n regular del dataset SWAG, de forma que seleccione la mejor respuesta a partir de varias opciones y alg煤n contexto.

Cargar el dataset SWAG

Carga el dataset SWAG con la biblioteca 馃 Datasets:

>>> from datasets import load_dataset

>>> swag = load_dataset("swag", "regular")

Ahora, 茅chale un vistazo a un ejemplo del dataset:

>>> swag["train"][0]
{'ending0': 'passes by walking down the street playing their instruments.',
 'ending1': 'has heard approaching them.',
 'ending2': "arrives and they're outside dancing and asleep.",
 'ending3': 'turns the lead singer watches the performance.',
 'fold-ind': '3416',
 'gold-source': 'gold',
 'label': 0,
 'sent1': 'Members of the procession walk down the street holding small horn brass instruments.',
 'sent2': 'A drum line',
 'startphrase': 'Members of the procession walk down the street holding small horn brass instruments. A drum line',
 'video-id': 'anetv_jkn6uvmqwh4'}

Los campos sent1 y sent2 muestran c贸mo comienza una oraci贸n, y cada campo ending indica c贸mo podr铆a terminar. Dado el comienzo de la oraci贸n, el modelo debe escoger el final de oraci贸n correcto indicado por el campo label.

Preprocesmaiento

Carga el tokenizer de BERT para procesar el comienzo de cada oraci贸n y los cuatro finales posibles:

>>> from transformers import AutoTokenizer

>>> tokenizer = AutoTokenizer.from_pretrained("google-bert/bert-base-uncased")

La funci贸n de preprocesmaiento debe hacer lo siguiente:

  1. Hacer cuatro copias del campo sent1 de forma que se pueda combinar cada una con el campo sent2 para recrear la forma en que empieza la oraci贸n.
  2. Combinar sent2 con cada uno de los cuatro finales de oraci贸n posibles.
  3. Aplanar las dos listas para que puedas tokenizarlas, y luego des-aplanarlas para que cada ejemplo tenga los campos input_ids, attention_mask y labels correspondientes.
>>> ending_names = ["ending0", "ending1", "ending2", "ending3"]


>>> def preprocess_function(examples):
...     first_sentences = [[context] * 4 for context in examples["sent1"]]
...     question_headers = examples["sent2"]
...     second_sentences = [
...         [f"{header} {examples[end][i]}" for end in ending_names] for i, header in enumerate(question_headers)
...     ]

...     first_sentences = sum(first_sentences, [])
...     second_sentences = sum(second_sentences, [])

...     tokenized_examples = tokenizer(first_sentences, second_sentences, truncation=True)
...     return {k: [v[i : i + 4] for i in range(0, len(v), 4)] for k, v in tokenized_examples.items()}

Usa la funci贸n [~datasets.Dataset.map] de 馃 Datasets para aplicarle la funci贸n de preprocesamiento al dataset entero. Puedes acelerar la funci贸n map haciendo batched=True para procesar varios elementos del dataset a la vez.

tokenized_swag = swag.map(preprocess_function, batched=True)

馃 Transformers no tiene un collator de datos para la tarea de selecci贸n m煤ltiple, as铆 que tendr铆as que crear uno. Puedes adaptar el [DataCollatorWithPadding] para crear un lote de ejemplos para selecci贸n m煤ltiple. Este tambi茅n le a帽adir谩 relleno de manera din谩mica a tu texto y a las etiquetas para que tengan la longitud del elemento m谩s largo en su lote, de forma que tengan una longitud uniforme. Aunque es posible rellenar el texto en la funci贸n tokenizer haciendo padding=True, el rellenado din谩mico es m谩s eficiente.

El DataCollatorForMultipleChoice aplanar谩 todas las entradas del modelo, les aplicar谩 relleno y luego des-aplanar谩 los resultados:

```py >>> from dataclasses import dataclass >>> from transformers.tokenization_utils_base import PreTrainedTokenizerBase, PaddingStrategy >>> from typing import Optional, Union >>> import torch

@dataclass ... class DataCollatorForMultipleChoice: ... """ ... Collator de datos que le a帽adir谩 relleno de forma autom谩tica a las entradas recibidas para ... una tarea de selecci贸n m煤ltiple. ... """

... tokenizer: PreTrainedTokenizerBase ... padding: Union[bool, str, PaddingStrategy] = True ... max_length: Optional[int] = None ... pad_to_multiple_of: Optional[int] = None

... def call(self, features): ... label_name = "label" if "label" in features[0].keys() else "labels" ... labels = [feature.pop(label_name) for feature in features] ... batch_size = len(features) ... num_choices = len(features[0]["input_ids"]) ... flattened_features = [ ... [{k: v[i] for k, v in feature.items()} for i in range(num_choices)] for feature in features ... ] ... flattened_features = sum(flattened_features, [])

... batch = self.tokenizer.pad( ... flattened_features, ... padding=self.padding, ... max_length=self.max_length, ... pad_to_multiple_of=self.pad_to_multiple_of, ... return_tensors="pt", ... )

... batch = {k: v.view(batch_size, num_choices, -1) for k, v in batch.items()} ... batch["labels"] = torch.tensor(labels, dtype=torch.int64) ... return batch

</pt>
<tf>
```py
>>> from dataclasses import dataclass
>>> from transformers.tokenization_utils_base import PreTrainedTokenizerBase, PaddingStrategy
>>> from typing import Optional, Union
>>> import tensorflow as tf


>>> @dataclass
... class DataCollatorForMultipleChoice:
...     """
...     Data collator that will dynamically pad the inputs for multiple choice received.
...     """

...     tokenizer: PreTrainedTokenizerBase
...     padding: Union[bool, str, PaddingStrategy] = True
...     max_length: Optional[int] = None
...     pad_to_multiple_of: Optional[int] = None

...     def __call__(self, features):
...         label_name = "label" if "label" in features[0].keys() else "labels"
...         labels = [feature.pop(label_name) for feature in features]
...         batch_size = len(features)
...         num_choices = len(features[0]["input_ids"])
...         flattened_features = [
...             [{k: v[i] for k, v in feature.items()} for i in range(num_choices)] for feature in features
...         ]
...         flattened_features = sum(flattened_features, [])

...         batch = self.tokenizer.pad(
...             flattened_features,
...             padding=self.padding,
...             max_length=self.max_length,
...             pad_to_multiple_of=self.pad_to_multiple_of,
...             return_tensors="tf",
...         )

...         batch = {k: tf.reshape(v, (batch_size, num_choices, -1)) for k, v in batch.items()}
...         batch["labels"] = tf.convert_to_tensor(labels, dtype=tf.int64)
...         return batch

Entrenamiento

Carga el modelo BERT con [`AutoModelForMultipleChoice`]:
>>> from transformers import AutoModelForMultipleChoice, TrainingArguments, Trainer

>>> model = AutoModelForMultipleChoice.from_pretrained("google-bert/bert-base-uncased")

Para familiarizarte con el fine-tuning con [Trainer], 隆mira el tutorial b谩sico aqu铆!

En este punto, solo quedan tres pasos:

  1. Definir tus hiperpar谩metros de entrenamiento en [TrainingArguments].
  2. Pasarle los argumentos del entrenamiento al [Trainer] jnto con el modelo, el dataset, el tokenizer y el collator de datos.
  3. Invocar el m茅todo [~Trainer.train] para realizar el fine-tuning del modelo.
>>> training_args = TrainingArguments(
...     output_dir="./results",
...     eval_strategy="epoch",
...     learning_rate=5e-5,
...     per_device_train_batch_size=16,
...     per_device_eval_batch_size=16,
...     num_train_epochs=3,
...     weight_decay=0.01,
... )

>>> trainer = Trainer(
...     model=model,
...     args=training_args,
...     train_dataset=tokenized_swag["train"],
...     eval_dataset=tokenized_swag["validation"],
...     tokenizer=tokenizer,
...     data_collator=DataCollatorForMultipleChoice(tokenizer=tokenizer),
... )

>>> trainer.train()
Para realizar el fine-tuning de un modelo en TensorFlow, primero convierte tus datasets al formato `tf.data.Dataset` con el m茅todo [`~TFPreTrainedModel.prepare_tf_dataset`].
>>> data_collator = DataCollatorForMultipleChoice(tokenizer=tokenizer)
>>> tf_train_set = model.prepare_tf_dataset(
...     tokenized_swag["train"],
...     shuffle=True,
...     batch_size=batch_size,
...     collate_fn=data_collator,
... )

>>> tf_validation_set = model.prepare_tf_dataset(
...     tokenized_swag["validation"],
...     shuffle=False,
...     batch_size=batch_size,
...     collate_fn=data_collator,
... )

Para familiarizarte con el fine-tuning con Keras, 隆mira el tutorial b谩sico aqu铆!

Prepara una funci贸n de optimizaci贸n, un programa para la tasa de aprendizaje y algunos hiperpar谩metros de entrenamiento:

>>> from transformers import create_optimizer

>>> batch_size = 16
>>> num_train_epochs = 2
>>> total_train_steps = (len(tokenized_swag["train"]) // batch_size) * num_train_epochs
>>> optimizer, schedule = create_optimizer(init_lr=5e-5, num_warmup_steps=0, num_train_steps=total_train_steps)

Carga el modelo BERT con [TFAutoModelForMultipleChoice]:

>>> from transformers import TFAutoModelForMultipleChoice

>>> model = TFAutoModelForMultipleChoice.from_pretrained("google-bert/bert-base-uncased")

Configura el modelo para entrenarlo con compile:

>>> model.compile(optimizer=optimizer)

Invoca el m茅todo fit para realizar el fine-tuning del modelo:

>>> model.fit(x=tf_train_set, validation_data=tf_validation_set, epochs=2)