概要
AWS Bedrockを使ってStability AIの画像生成を試してみました。当初は動画生成も検討していたのですが、現時点では対応していないことが分かったので、画像生成にフォーカスして検証してみました。
環境準備
AWS CLIの設定
まずは最新のAWS CLI (version 2)をインストールします。
$ curl "" -o "AWSCLIV2.pkg"
$ sudo installer -pkg AWSCLIV2.pkg -target /
# インストール確認
$ aws --version
aws-cli/2.22.3 Python/3.12.6 Darwin/24.1.0 exe/x86_64
利用可能なモデルの確認
Stability AIが提供しているモデルを確認してみました。
$ AWS_PROFILE=playground aws bedrock list-foundation-models \\
--region us-west-2 \\
--query 'modelSummaries[?providerName==`Stability AI`]' \\
--output table
動画生成の検証結果
当初の目的だった動画生成ですが、残念ながら現時点(2024年11月)ではBedrockで対応していないようです。代替案としては以下のようなものがありそうです:
- Runway ML API
- Replicate API (Stable Video Diffusion)
- Pika Labs API
- 画像の連続フレームを利用した擬似的な動画生成
画像生成の実装と検証
モデルのアクセス設定
まずはBedrockのコンソールで画像生成モデルへのアクセスを有効化します。
画像生成APIの実装
TypeScriptでAPI実装を行いました。ポイントは以下の通りです:
// 主要な実装部分を抜粋
const input = {
prompt: prompt,
negative_prompt: negativePrompt || "",
seed: Math.floor(Math.random() * 1000000),
aspect_ratio: "1:1",
output_format: "png",
};
const command = new InvokeModelCommand({
modelId: "stability.stable-image-core-v1:0",
contentType: "application/json",
accept: "application/json",
body: JSON.stringify(input),
});
検証結果
実際に画像生成を試しました。
おわりに
AWS Bedrockを使った画像生成は比較的スムーズに実装できました。動画生成には対応していませんでしたが、画像生成に関しては十分な品質が得られたと思います。今後のアップデートで動画生成にも対応してくれることを期待したいですね。
株式会社Grandreamでは、フルリモートであなたのスキルを活かし、活躍できるエンジニアを募集しております。
詳しくは採用ページをご確認いただき、お気軽にお問い合わせください。