掲載内容は個人の見解であり、所属する企業を代表するものではありません.
最近は Azure で分散並列処理をするためのサービスも様々提供されておりますが、その中でも老舗のサービスである Azure Batch もシンプルかつ強力なフレームワークを提供しており、非常に便利なお勧めの一品です。 サービスそのものの紹介や利用方法は公式ドキュメントをご参照いただければと思いますが、大雑把に言えば下記のような処理を実施するためのフレームワークを提供しています。
このコマンドラインの実行に必要な環境変数、入出力に使われるファイルなどの一式を タスク
として管理し、
複数のタスクを ジョブ
という単位で取りまとめて管理してくれます。
利用が大規模になるとノードを数百持つプールが複数稼働し、それらのノード上で複数の数千数万といったタスクが並列に実行されたりするわけです。
そのような状況でトラブルシュートやチューニングを行おうとすると当然リアルタイム解析は現実的では無く、結果として残されたログファイルをもとに事後解析が必要になります。 しかしタスクが数千実行されれば、その数倍のログや結果ファイルが Blob に残されているわけで、これを効率的に分析するための仕組みが必要になってきます。 これは Azure Batch だけでは実現できないので、1つの手段としては Application Insights が便利に使用できます。 またこの Application Insights で収集したテレメトリを Log Analytics ワークスペースに送信出来るようになりました。 つまり Azure Batch そのものが出力する診断ログやメトリックもまとめて解析できるわけです。 というわけで、本記事では Azure Batch で動作するアプリケーションからインサイトを得るために Azure Monitor の活用方法について紹介していきます。
Azure Batch から Application Insights に流し込めるデータは以下の2種類です。
前者は実行するジョブやタスクによらず、汎用的に構成できるもので Batch Insights とも呼ばれます。 プールにノードが配備される際に最初に実行される 開始タスク において、 こちら で提供される監視用のアプリをバックグラウンドプロセスとして起動・常駐させることで、 ジョブやタスクの実行状況に関わらず継続的にテレメトリ情報を Application Insights に送信します。
後者はアプリケーション内部で記録したい情報を明示的に Application Insights に送信するコードを埋め込む(インストルメンテーション)必要があるので、 独自開発したアプリケーションか、オープンソースなどのカスタマイズ可能なアプリケーションである必要があります。 各種言語で記述されたコードから対応する SDK を利用して Application Insights の API を呼び出すことでデータを送信します。
これらの収集されたデータを Azure Batch Explorer で可視化する、 あるいは Azure Portal から KQL : Kusto Query Language を用いて柔軟な解析を行うことになります。 公式ドキュメントでは こちら で解説されている内容になります。
Batch Insights の設定手順 にしたがって構成すると、 Azure Batch Explorer でプールやノードの情報を参照する際に、 CPU, Memory, Network, Disk IO などの各種グラフが表示されるようになります。 簡単で便利ですね。
しかし残念なことに Batch Explorer では直近の 10分、1時間、1日、1週間の各種グラフを表示してくれるのみです。 つまり、昨日の夜間バッチのデータだけグラフに表示したい、先々週のデータと比較したい、Excelに出力してグラフを綺麗にしたい、などの要件には対応できません。
このようなケースでは、Azure Portal から独自のクエリをかけていくといいでしょう。
Batch Insights が収集したデータは customMetrics
テーブルに格納されていますので、こちらを対象にクエリを作成します。
例えば以下は 9時から12時の間における各コアの使用量を5分間隔で集計して線グラフで表示する
例になります。
customMetrics
| where name == 'Cpu usage'
| where timestamp between(datetime("2020-10-30 09:00:00") .. datetime("2020-10-30 12:00:00"))
| extend core = strcat(cloud_RoleInstance, ' - CPU #', customDimensions['CPU #'])
| extend usage = valueSum / valueCount
| summarize avg(usage) by bin(timestamp, 5m), core
| render timechart
これを実際に表示してみると以下のようになります。 この時は4コアx3ノードのプールで計算していたので、計 12 コア分のグラフが表示されました。
Application Insights にクエリを保存しておけばいつでもポータルから実行できますし、ダッシュボードにピンしておけば計算状況の監視にも使えます。 レポートを作成する上でグラフの見た目が気に食わなければ、クエリの結果を CSV でエクスポートしてみんな大好き Excel でグラフを作るのもいいと思います。
Batch Insights でノードの性能情報を収集するのは簡単でしたが、ジョブやタスクの実行回数やエラーといった情報が送信出来ません。 また Batch Explorer は「プールとノード」や「ジョブとタスク」というフレームワークとして定義された階層構造での分析には便利なのですが、 「タスク間の依存関係」や「タスク内で実施される様々な処理」といったようなアプリケーションの仕様に基づいた分析が出来ません。 さらに残念なことにAzure Batch は 自動インストルメンテーション に対応していません。 というわけで、要件に基づいた柔軟な分析をしたい場合には、アプリに対して手動でインストルメンテーションを行うことで必要な情報を Application Insights に明示的に送信し、KQL を駆使してデータを加工する必要があります。
まずはインストルメンテーションですが、要はログ出力コードの埋め込みをします。 これは言語やランタイムによって異なってきますので、 詳細は公式ドキュメントをご参照ください。 例えば以下は .NET で直接埋め込む例になります。
using (var ops = telemetryClient.StartOperation<RequestTelemetry>("hoge"))
{
telemetryClient.TrackEvent("イベント開始");
for(int i = 0; i < 20; i ++)
{
telemetryClient.TrackTrace($"{i}回目の実行", SeverityLevel.Verbose);
try
{
//Do Work
}
catch (Exception ex)
{
telemetryClient.TrackException(ex);
throw;
}
}
}
もしすでにロギングフレームワークを使用したコードが埋め込まれているのであれば、 その出力先としてApplication Insights を追加するだけで済むと思います。
このようにロギングコードを埋め込むだけでもクエリはかけられるようになるのですが、これだけでは1つ1つのトレースがバラバラにデータベースに入るだけで、 どのジョブ、どのノード、どのタスクで実行された時の情報なのかがわからないと不便でしょう。 Azure Batch で処理が実行される際には ランタイム環境変数 に様々な情報が設定されています。 これを全てのインストルメンテーションコードにメタデータとして付与してやれば、あとで様々な解析でしやすくなるはずです。 またまた C# の例になりますが、テレメトリクライアントの初期化時に下記のようなコードを一回だけ実行しておけば、複数のレコードを横断的に解析できるわけです。
Environment.GetEnvironmentVariables().Keys.OfType<string>().Where(k => k.StartsWith("AZ_BATCH_")).ToList().ForEach(k =>
{
_telemetry.Context.GlobalProperties.Add(k, Environment.GetEnvironmentVariable(k));
});
さてそれではクエリを実行されてみましょう。
先ほどのようなコードで記述した場合、StartOperation
で記録した部分はrequests
テーブルに対して hoge
というオペレーション名で記録されているはずです。
このテーブルには duration
として実行時間が記録されるので性能測定に便利です。
またプロパティとして付与した情報は customDimensions
列に格納されているので、この中から分析に必要なフィールドを展開してやれば良いわけです。
下記は とあるジョブ ID 内で実行された hoge というオペレーションの実行時間を50ミリ秒刻みに分類し、その出現頻度をノード別に色分けして棒グラフに出力する
例になっています。
requests
| extend jobid = customDimensions["AZ_BATCH_JOB_ID"]
| where jobid == 'job-app01-20201030-143021-210652'
| where operation_Name == 'hoge'
| extend node = customDimensions["AZ_BATCH_NODE_ID"]
| summarize count() by bin(duration, 50), tostring(node)
| order by duration asc
| render columnchart
実際の出力結果は以下のようになります。 この時は20ノードで処理をしているので大分カラフルになりましたが、最頻値の150ミリ秒前後ではほぼ均等にノードが現れていますので、ノードによって処理時間に差はあまり出ていないようです。 しかし回数は少ないですが、実行時間の長いものは1000秒を超えているものもあるようです。
Azure Batch が管理できるのはタスクの単位ですが、ここではオペレーションという独自の処理単位で集計ができています。
タスクの中で hoge
という処理は複数回実行されているかもしれませんし、一度も行われていないかもしれませんが、タスクの粒度とは関係なく興味のある単位で実行時間の解析が出来たわけです。
さてもう一つの例を考えてみます。
通常1つのプールの中で複数台のノードが動作しているわけですが、このプールに対して何度もジョブが投入され、大量のタスクを分散して実行することになります。
実はアプリの起動直後に TrackTrace
を使用して 使用された起動引数
を記録しておきました。
各ノードで記録されたこのトレースの回数を数えれば、各ノードが均等に仕事をしているかがわかります。
下記は とあるプールの中で実行された、特定のトレースメッセージを含むものだけ抽出し、各ノードごとに出現回数を数えて棒グラフに表示する
クエリになっています。
traces
| where customDimensions["AZ_BATCH_POOL_ID"] == 'pool0-20201030-142818-029975'
| where message contains "app01-env.dll config"
| extend taskid = customDimensions["AZ_BATCH_TASK_ID"]
| extend node = customDimensions["AZ_BATCH_NODE_ID"]
| summarize count(taskid) by tostring(node)
| render barchart
実際の出力結果は以下のようになります。 ジョブやタスクは何度も実行しているのですが、プールのサイズを途中で変えていないのでノード数と一致するバーが表示されています、全てのノードに仕事が割り当てられているようです。 各ノードだいたい450回程度の実行が記録されているのですが、やたらと数が多い(900程度)ノードと、やたらと少ない(200程度)ノードがいるようです。 あまりうまく分散できていないようですね。
こちらの例では複数のジョブやタスクを横断して、ノード当たりの仕事量に着目した解析、ということになります。
ここまでの内容で Batch Insithgs を利用することでノードレベルでのパフォーマンス情報が、 アプリケーションの詳細なテレメトリ情報を収集・解析ができるようになりましたが、 このままでは以下のような課題があります。
このためプールやタスクを管理している Azure Batch 側からのデータもあわせて収集しておくと良いでしょう。 Azure Batch の診断ログや各種メトリックは元々ストレージアカウントや Log Analytics ワークスペースに収集することが出来るのですが、 この収集先を前述の Application Insights と統合された Log Analytics ワークスペース にしてやることで各種情報を一元的に分析できるようになるわけです。
実際に Application Insights を Log Analytics ワークスペースと統合して、Log Analytics ワークスペースでデータを確認すると、
診断ログが格納された AzureDiagnostics
テーブルや各種メトリック値が格納された AzureMetrics
テーブルと一緒に、
Application Insights から送信されたデータが格納される AppXxxx テーブルが確認出来ます。
ただこの AppXxxx テーブル、テーブル名だけでなく列名も異なっています。
Application Insights からクエリをかける場合と、その裏にある Log Analytics Workspace からクエリをかける場合でクエリの内容が変ってしまいますので、
その点はご注意ください。
まずタスクの実行状況を診断ログから確認してみます。 特定のジョブで実行されたタスクの開始と終了件数をグラフにしてみましょう。
AzureDiagnostics
| where OperationName startswith "Task"
| where jobId_s == 'job-app01-20201105-131350-970243'
| summarize count() by bin( TimeGenerated, 1m), OperationName
| render columnchart
結果を見ると 1000 タスクの全てが開始するのに 5 分程度かかっていますが、同じく 5 分程度で 1000 タスクが終了しています。 投入したタスクに対しては 1 分あたり 200 タスクさばける程度の処理能力を持っているようですね。
Azure Batch から送信される診断ログのデータスキーマは こちら をご参照ください。
ジョブが実行された時間帯が分かったので、この時間帯のノードの利用状況も見てみましょう。 前後の様子も見たいので時間幅に余裕を持たせたクエリになっています。
AzureMetrics
| where TimeGenerated between (datetime('2020/11/5 12:55:00')..datetime('2020/11/5 13:30:00'))
| where ResourceProvider == 'MICROSOFT.BATCH'
| where MetricName in ('IdleNodeCount', 'RunningNodeCount', 'TotalNodeCount', 'TotalLowPriorityNodeCount')
| summarize avg(Total) by bin(TimeGenerated, 1m), MetricName
| render timechart
タスクが投入される少し前にプールが4ノード(Standard VM 1 + Low Priority VM 3)から 10 ノード(Standard VM 2 + Low Priority VM 8)にスケールし、 タスクが実行されていた時間帯は全ノードが running 状態であったことが確認出来ます。
Azure Batch から送信されるメトリックの定義は こちら をご参照ください。
Azure Batch を利用する場合は診断ログとメトリックを Log Analytics ワークスペースに送信してやるだけで様々な実行状況の解析が可能になります。 加えて Batch Insights を利用することで各ノード内の詳細なパフォーマンスデータが取れるようになりますので、ボトルネックの分析やチューニングに役立てることが出来ます。 ここまでは任意のアプリケーションに大して設定だけで実装可能ですが、カスタムアプリケーションの場合はインストルメンテーションを行うことで、 よりアプリケーションの仕様に即した性能分析を行うことが出来るようになります。
ここまで紹介してきた通り Application Insight をうまく使用していただくことで柔軟な解析が可能になるのですが、以下の点に留意していただければと思います。
これは Application Insights 上で解析するとデータが欠けている場合があることを意味します。
このためアプリの実行証跡としての ログ
は別途必ず出力しておき、ファイルとして Blob 等に保存しておくことをお勧めします。
また Log Analytics もデータが送信されてからクエリで表示できるようになるまでに短くとも数分程度の遅延があります。 開発時にはアプリに加えてクエリに関してもトライ&エラーを行うことになりますが、実行後にすぐに結果が見えるわけではないことに留意して作業を進めていただければと思います。
Azure Batch ではノードとして使用する仮想マシンを仮想ネットワーク内に配置することで、仮想ネットワーク内の他のリソースやオンプレミス環境と連携する Batch ソリューションを実現することが可能です。 ただこのような環境では仮想ネットワークから外部への通信が制約を受けることが多く、Application Insights 等の外部サービスへ通信できないことが往々にしてあります。 Batch Insights やインストルメンテーション結果がどうしても表示されない場合は、プールが配置されているネットワーク環境を疑ってみてください。
Batch Insights の設定手順 にしたがって構成すると、次のような通信が必要になります。
これらの通信が阻害されていれば適切に動作しません。 一般的に通信を阻害しそうな容易としては NSG(Network Security Group) 、Azure Firewall 、プロキシ、仮想アプライアンス、などが考えられます。 オンプレミスへ強制トンネリングが行われるケースではオンプレミス側のネットワーク機器である可能性もあります。 これらに大して通信を許可するように構成を行う必要がありますが、これが難しい場合は以下のような代替回避策も考えられます。
Application Insights はPrivate Endpoint も構成できます。 この場合は Application Insights をあたかも仮想ネットワーク内に配置されて Private IP アドレスで到達可能なリソースとしてアクセス出来るようになりますので、こちらも解決策の1つになりえるでしょう。
GitHub に関しては Private Endpoint が構成できません。 実行時の通信許可設定が出来ないのであれば、Batch Insights の実行モジュールを事前にダウンロードしておく方法が考えられます。 ただこの方式ですと、Batch Insights のバージョンアップが行われても古いものを使い続けることになりますので、バージョンアップの運用は別途考えておく必要があります。
まず構成手順の中で示されているように、開始タスクの中では下記のセットアップスクリプトをダウンロードして実行しています。
#!/bin/bash
set -e;
wget -O ./batch-insights "$BATCH_INSIGHTS_DOWNLOAD_URL";
chmod +x ./batch-insights;
./batch-insights $AZ_BATCH_INSIGHTS_ARGS > batch-insights.log &
このスクリプトでも GitHub から実行モジュールをダウンロードし、それをデーモン起動しているわけです。
つまりこの $BATCH_INSIGHTS_DOWNLOAD_URL
から事前にダウンロードしたバイナリを Blob にアップロードしておき、
プールの開始タスクでダウンロードしてもらえば、実行時には GitHub への通信が不要になります。
プール作成のコードは以下のようになります(一部省略してあります)
// Azure Batch SDK でプールを作成する
var azbatclient = BatchClient.Open(credential);
var newpool = azbatclient.PoolOperations.CreatePool(poolid, etc...);
// 仮想ネットワークにプールを作成する設定(この仮想ネットワークから外部への通信が阻害される)
newpool.NetworkConfiguration = new NetworkConfiguration(){
SubnetId = $"/subscriptions/{guid}/resourceGroup/{rgName}/providers/Microsoft.Network/virtualNetwork/{vnetName}/subnet/{subnetName}",
PublicIPAddressConfiguration = new PublicIPAddressConfiguration(IPAddressProvisioningType.BatchManaged)
};
// Batch Insights を構成する開始タスク(プール内にノードが配備されるたびに実行される)
newpool.StartTask = new StartTask()
{
// 通常のセットアップ手順(GitHubへの通信が必要)
// CommandLine = "/bin/bash -c 'wget -O - https://raw.githubusercontent.com/Azure/batch-insights/master/scripts/run-linux.sh | bash'"
// 後述のリソースファイル設定で実行モジュールがダウンロードされているはず
CommandLine = "/bin/bash -c './batch-insights $AZ_BATCH_INSIGHTS_ARGS &'"
// Batch Insights の動作に必要な環境変数の設定
EnvironmentSettings = new List<EnvironmentSetting>() {
new EnvironmentSetting("APP_INSIGHTS_INSTRUMENTATION_KEY", "application-insights-instrumentation-key"]),
new EnvironmentSetting("APP_INSIGHTS_APP_ID", "application-id-of-application-insights"),
new EnvironmentSetting("AZ_BATCH_INSIGHTS_ARGS", "optional-parameters-of-batch-insights"),
// new EnvironmentSetting("BATCH_INSIGHTS_DOWNLOAD_URL", "https://github.com/Azure/batch-insights/releases/download/vX.Y.Z/batch-insights")
},
// Batchアカウントにリンクされたストレージのコンテナに、別途ダウンロードしておいた Batch Insights モジュールをアップロードしておく
ResourceFiles = new List<ResourceFile>() {
// 指定したコンテナ内のファイルが開始タスクの実行ディレクトリにコピーされる
ResourceFile.FromAutoStorageContainer("blob-container-name")
}
}
// 作成
await newpool.CommitAsync();