チートシート
#
基本セットアップ#
ワークスペースへの接続この Workspace オブジェクトは Azure ML 操作における基本的なオブジェクトで、一連のコードを通して共有されます。(ws
という変数名で参照されることが多いです。)
ワークスペースの詳細: ワークスペース
#
コンピューティングターゲットへの接続使用例
コンピューティングターゲットの詳細: コンピューティングターゲット
#
Python 環境の準備pip のrequirements.txt
ファイルや Conda のenv.yml
ファイルを使い、コンピューティング環境の Python 環境を Environment オブジェクトとして定義することができます。
docker イメージを使って環境を準備することもできます。
使用例
環境の詳細: 環境
#
コードをサブミットするAzure ML 上でコードを実行するためには:
- エントリーポイントとなるコードのパス、コードを実行するコンピューティングターゲット、そしてコードを実行する Python 環境の設定情報を作成します。
- Azure ML の実験を新規作成または再利用してサブミットします。
#
ScriptRunConfig典型的なディレクトリ構成例:
リモートコンピューティングクラスターtarget: ComputeTarget
上の、Python 環境env: Environment
で、$ (env) python <path/to/code>/script.py [arguments]
を実行するには、 ScriptRunConfig
クラスを使用します。
ScriptRunConfig の引数の詳細: コマンドライン引数
info
compute_target
: もし引数が与えられなかった場合は、スクリプトはローカルマシン上で実行されます。environment
: もし引数が与えられなかった場合、Azure ML のデフォルトPython 環境が使用されます。環境の詳細: Environment
#
コマンドもしも明示的なコマンドを与える場合。
コマンドの詳細: コマンド
#
実験コードをサブミットするには実験
を作成します。実験は、サブミットされた一連のコードをグルーピングしてコードの実行履歴を追跡する軽量のコンテナです。 (参照: Run History).
上記コードで返される Azure ML Studio へのリンクにより、実験の実行をモニタリングすることができます。
詳細: クラウド上でコードを実行する
#
使用例以下はコマンドラインから Conda 環境を使ってトレーニングスクリプトtrain.py
をローカルマシン上で実行する典型的な例です。
このスクリプトを Azure 上の GPU を使って実行したいと仮定します。
#
分散 GPU 学習分散 GPU 学習を有効にするためにScriptRunConfig
を変更します。
info
mcr.microsoft.com/azureml/openmpi3.1.2-cuda10.1-cudnn7-ubuntu18.04
は OpenMPI の docker イメージです。このイメージは Azure ML 上で分散学習を実行する際に必要となります。MpiConfiguration
はトレーニングを行うノード数とノードあたりの GPU 数を指定するために使います。
詳細: 分散 GPU トレーニング
#
データへの接続ワークスペースws
のデフォルトデータストアにあるデータをトレーニングスクリプトから扱うためには:
詳細: データ
コマンドライン引数に以下を渡すことで上記のdataset
を使用できます。