Amazon Web Services ブログ
Amazon SageMaker AI の新しいサーバーレスカスタマイズにより、モデルのファインチューニングが加速します
2025 年 12 月 3 日、Amazon Nova、 DeepSeek 、 GPT-OSS 、Llama、Qwen などの人気の AI モデル向けの Amazon SageMaker AI の新しいサーバーレスカスタマイズを発表できることを嬉しく思います。 新しいカスタマイズ機能は、強化学習などの最新ファインチューニング手法を簡単に操作できるインターフェイスを提供し、AI モデルのカスタマイズプロセスを数か月から数日に短縮できます。
わずか数クリックで、モデルとカスタマイズ手法をシームレスに選択し、モデルの評価やデプロイメントを行うことができます。すべて完全にサーバーレスで実行されるため、インフラ管理ではなくモデルのチューニングに専念できます。サーバーレスカスタマイズを選択すると、SageMaker AI がモデルとデータサイズに基づいて適切なコンピューティングリソースを自動的に選択およびプロビジョニングします。
サーバーレスモデルのカスタマイズを始める
Amazon SageMaker Studio でモデルのカスタマイズを開始できます。左側のナビゲーションペインで [モデル] を選択し、カスタマイズしたいお気に入りの AI モデルをチェックしてください。

UI によるカスタマイズ
数回のクリックで AI モデルをカスタマイズできます。Meta Llama 3.1 8B Instruct などの特定のモデルの「モデルのカスタマイズ」ドロップダウンリストで、「UI でカスタマイズ」を選択します。

ベースモデルをユースケースに適合させるために使用するカスタマイズ手法を選択できます。SageMaker AI は、直接選好最適化、検証可能な報酬からの強化学習 (RLVR)、AI フィードバックによる強化学習 (RLAIF) など、教師ありの微調整と最新のモデルカスタマイズ技術をサポートしています。それぞれの手法は、データセットのサイズと品質、利用可能な計算リソース、手元のタスク、必要な精度レベル、展開の制約などの要因によって異なる方法でモデルを最適化します。
選択したカスタマイズ手法に必要な形式に一致するトレーニングデータセットをアップロードまたは選択します。選択した手法が推奨するバッチサイズ、学習率、エポック数の値を使用してください。ハイパーパラメーター、実験追跡用の新しく導入されたサーバーレス MLfLow アプリケーション、ネットワークとストレージボリュームの暗号化などの詳細設定を構成できます。[送信] を選択して、モデルトレーニングジョブを開始してください。
トレーニングジョブが完了すると、作成したモデルが [マイモデル] タブに表示されます。いずれかのモデルで [詳細を表示] を選択します。

[カスタマイズを続ける] を選択すると、ハイパーパラメーターを調整したり、さまざまな手法でトレーニングしたりして、モデルを引き続きカスタマイズできます。[評価] を選択すると、カスタマイズしたモデルを評価して、基本モデルと比較してどのように機能するかを確認できます。
両方のジョブを完了したら、「デプロイ」ドロップダウンリストで「SageMaker」または「Bedrock」 を選択してモデルをデプロイできます。

サーバーレス推論には Amazon Bedrock を選択できます。Bedrock とモデル名を選択して、モデルを Amazon Bedrock にデプロイします。デプロイされたモデルを見つけるには、 Bedrockコンソールで 「インポートされたモデル」を選択します。

インスタンスタイプやインスタンス数などのデプロイリソースを制御したい場合は、モデルを SageMaker AI 推論エンドポイントにデプロイすることもできます。SageMaker AI デプロイメントが稼働中になったら、このエンドポイントを使用して推論を実行できます。Playground タブでは、カスタマイズしたモデルを 1 つのプロンプトまたはチャットモードでテストできます。

サーバーレスの MLFlow 機能を使用すると、コードを変更せずにすべての重要な実験メトリクスを自動的にログに記録し、豊富なビジュアライゼーションにアクセスしてさらに分析することができます。
コードでカスタマイズ
コードによるカスタマイズを選択すると、AI モデルを微調整またはデプロイするためのサンプルノートブックが表示されます。サンプルノートブックを編集する場合は、JupyterLab で開きます。または、[Deploy] を選択してモデルをすぐにデプロイすることもできます。

Amazon SageMaker Inference または Amazon SageMaker Hyperpod のいずれかからデプロイリソースを選択して、Amazon Bedrock または SageMaker AI エンドポイントを選択できます。

ページの右下にある [Deploy] を選択すると、モデルの詳細ページにリダイレクトされます。SageMaker AI デプロイメントが稼働したら、このエンドポイントを使用して推論を実行できます。
さて、SageMaker AI でモデルのカスタマイズを効率化する方法を見てきました。これで、お気に入りの方法を選択できます。詳細については、Amazon SageMaker デベロッパーガイドをご覧ください。
今すぐご利用いただけます
Amazon SageMaker AI の新しいサーバーレス AI モデルのカスタマイズが、米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (東京)、およびヨーロッパ (アイルランド) リージョンで利用できるようになりました。トレーニングと推論中に処理されたトークンの分のみお支払いいただきます。詳細については、 Amazon SageMaker AI 料金表ページをご覧ください。
Amazon SageMaker Studio にぜひお試しいただき、AWS re:Post for Amazon SageMaker 宛てに、または通常の AWS サポートの連絡先を通じて、フィードバックをお寄せください。
– Channy
原文はこちらです。