Skip to content

Latest commit

 

History

History
160 lines (109 loc) · 7.56 KB

model.md

File metadata and controls

160 lines (109 loc) · 7.56 KB

Models

ベースクラスである [PreTrainedModel]、[TFPreTrainedModel]、[FlaxPreTrainedModel] は、モデルの読み込みと保存に関する共通のメソッドを実装しており、これはローカルのファイルやディレクトリから、またはライブラリが提供する事前学習モデル構成(HuggingFaceのAWS S3リポジトリからダウンロード)からモデルを読み込むために使用できます。

[PreTrainedModel] と [TFPreTrainedModel] は、次の共通のメソッドも実装しています:

  • 語彙に新しいトークンが追加された場合に、入力トークン埋め込みのリサイズを行う
  • モデルのアテンションヘッドを刈り込む

各モデルに共通するその他のメソッドは、[~modeling_utils.ModuleUtilsMixin](PyTorchモデル用)および[~modeling_tf_utils.TFModuleUtilsMixin](TensorFlowモデル用)で定義されており、テキスト生成の場合、[~generation.GenerationMixin](PyTorchモデル用)、[~generation.TFGenerationMixin](TensorFlowモデル用)、および[~generation.FlaxGenerationMixin](Flax/JAXモデル用)もあります。

PreTrainedModel

[[autodoc]] PreTrainedModel - push_to_hub - all

大規模モデルの読み込み

Transformers 4.20.0では、[~PreTrainedModel.from_pretrained] メソッドが再設計され、Accelerate を使用して大規模モデルを扱うことが可能になりました。これには Accelerate >= 0.9.0 と PyTorch >= 1.9.0 が必要です。以前の方法でフルモデルを作成し、その後事前学習の重みを読み込む代わりに(これにはメモリ内のモデルサイズが2倍必要で、ランダムに初期化されたモデル用と重み用の2つが必要でした)、モデルを空の外殻として作成し、事前学習の重みが読み込まれるときにパラメーターを実体化するオプションが追加されました。

このオプションは low_cpu_mem_usage=True で有効にできます。モデルはまず空の重みを持つメタデバイス上に作成され、その後状態辞書が内部に読み込まれます(シャードされたチェックポイントの場合、シャードごとに読み込まれます)。この方法で使用される最大RAMは、モデルの完全なサイズだけです。

from transformers import AutoModelForSeq2SeqLM

t0pp = AutoModelForSeq2SeqLM.from_pretrained("bigscience/T0pp", low_cpu_mem_usage=True)

さらに、モデルが完全にRAMに収まらない場合(現時点では推論のみ有効)、異なるデバイスにモデルを直接配置できます。device_map="auto" を使用すると、Accelerateは各レイヤーをどのデバイスに配置するかを決定し、最速のデバイス(GPU)を最大限に活用し、残りの部分をCPU、あるいはGPU RAMが不足している場合はハードドライブにオフロードします。モデルが複数のデバイスに分割されていても、通常どおり実行されます。

device_map を渡す際、low_cpu_mem_usage は自動的に True に設定されるため、それを指定する必要はありません。

from transformers import AutoModelForSeq2SeqLM

t0pp = AutoModelForSeq2SeqLM.from_pretrained("bigscience/T0pp", device_map="auto")

モデルがデバイス間でどのように分割されたかは、その hf_device_map 属性を見ることで確認できます:

t0pp.hf_device_map
{'shared': 0,
 'decoder.embed_tokens': 0,
 'encoder': 0,
 'decoder.block.0': 0,
 'decoder.block.1': 1,
 'decoder.block.2': 1,
 'decoder.block.3': 1,
 'decoder.block.4': 1,
 'decoder.block.5': 1,
 'decoder.block.6': 1,
 'decoder.block.7': 1,
 'decoder.block.8': 1,
 'decoder.block.9': 1,
 'decoder.block.10': 1,
 'decoder.block.11': 1,
 'decoder.block.12': 1,
 'decoder.block.13': 1,
 'decoder.block.14': 1,
 'decoder.block.15': 1,
 'decoder.block.16': 1,
 'decoder.block.17': 1,
 'decoder.block.18': 1,
 'decoder.block.19': 1,
 'decoder.block.20': 1,
 'decoder.block.21': 1,
 'decoder.block.22': 'cpu',
 'decoder.block.23': 'cpu',
 'decoder.final_layer_norm': 'cpu',
 'decoder.dropout': 'cpu',
 'lm_head': 'cpu'}

同じフォーマットに従って、独自のデバイスマップを作成することもできます(レイヤー名からデバイスへの辞書です)。モデルのすべてのパラメータを指定されたデバイスにマップする必要がありますが、1つのレイヤーが完全に同じデバイスにある場合、そのレイヤーのサブモジュールのすべてがどこに行くかの詳細を示す必要はありません。例えば、次のデバイスマップはT0ppに適しています(GPUメモリがある場合):

device_map = {"shared": 0, "encoder": 0, "decoder": 1, "lm_head": 1}

モデルのメモリへの影響を最小限に抑えるもう 1 つの方法は、低精度の dtype (torch.float16 など) でモデルをインスタンス化するか、以下で説明する直接量子化手法を使用することです。

Model Instantiation dtype

Pytorch では、モデルは通常 torch.float32 形式でインスタンス化されます。これは、しようとすると問題になる可能性があります 重みが fp16 にあるモデルをロードすると、2 倍のメモリが必要になるためです。この制限を克服するには、次のことができます。 torch_dtype 引数を使用して、目的の dtype を明示的に渡します。

model = T5ForConditionalGeneration.from_pretrained("t5", torch_dtype=torch.float16)

または、モデルを常に最適なメモリ パターンでロードしたい場合は、特別な値 "auto" を使用できます。 そして、dtype はモデルの重みから自動的に導出されます。

model = T5ForConditionalGeneration.from_pretrained("t5", torch_dtype="auto")

スクラッチからインスタンス化されたモデルには、どの dtype を使用するかを指示することもできます。

config = T5Config.from_pretrained("t5")
model = AutoModel.from_config(config)

Pytorch の設計により、この機能は浮動小数点 dtype でのみ使用できます。

ModuleUtilsMixin

[[autodoc]] modeling_utils.ModuleUtilsMixin

TFPreTrainedModel

[[autodoc]] TFPreTrainedModel - push_to_hub - all

TFModelUtilsMixin

[[autodoc]] modeling_tf_utils.TFModelUtilsMixin

FlaxPreTrainedModel

[[autodoc]] FlaxPreTrainedModel - push_to_hub - all

Pushing to the Hub

[[autodoc]] utils.PushToHubMixin

Sharded checkpoints

[[autodoc]] modeling_utils.load_sharded_checkpoint