Claude 3.5 sonnetがついに2024年8月6日に東京リージョンで利用できるのを確認できました。
その結果、日本の企業にとっては遅延がすくなく利用できるようになりました。
***余談***
ちなみにこの「Amazon Bedrock」の先頭のAmazon~のところ。
AWS~というサービスもあるのでその違いについてみてみました。
「Amazon~」と「AWS~」の違いは、そのサービスを単体で利用するのがメインかそうでないかです。
Amazonが単体。AWSが複数利用を前提。ということです。
具体的な例は
・Amazon RDS
・Amazon EC2
・AWS Lambda
・AWS CloudFormation
といったところでしょうか。
でもRDSだってLambdaと組み合わせるし。と、そうするとすべてのサービスは連帯することになるのでそれはおいといて。
ゆえに、Bedrockは単体で利用できるので「Amazon~」らしいです。
BedrockでのClaude 3.5の使いみち
正直、個人利用では普通にネイティブのAnthropicのAPIをたたけばいい。そういう方も多いのではないかと思います。
先日previewで開始された「Prompt flows」についても日本語に対応できているかとなんともいえません。操作性も正直なところDifyにはあきらか劣ります。玄人向き感がします。
個人で使うのであればDifyつかってネイティブAPI使ってが普通な選択肢になるとは思います。
もちろんDifyをEC2にデプロイ。Bedrockを使ってなんて方法もありだと思います。
ただ、ある程度の規模のある企業においてはそれが許容できない可能性があります。
1.ガバナンスを保ちたい企業(決済承認が手間、利用者が多いケース)
特に、従業員数が50名以上ぐらいから管理面でのガバナンスが求められます。IT企業で多くの人がプログラムをいじるというケースになるとなおさらです。
そのため、AWSのほかの請求とすべて請求がまとまるのは非常にメリットです。
何か始めようとしてもこういった管理が煩雑になるのがめんどくさいため、新規サービスの導入の障壁となるケースが多々ある企業も多いかと思います。そこを「もうAWS使っているので。」という言葉で導入を推し進めれます。
先ほどのDifyのような新しいサービスだと、オープンソースであっても企業文化で否定されるケースも多々あると思います。
また、東京リージョンで利用できることは、社内ネットワークとAWSがすでに構築されている企業であれば、なおさら活用しやすい可能性があります。日本企業様各位()にはこれは大きな点かもしれません。
AWSのIAMと連帯することで利用状況の特定。また制限も今のアカウントのままコントロールできるのは情報システム担当者としても管理しやすいポイントです。
2.セキュリティ要件でAWS内でプログラムをすべて簡潔させたい企業
AWSにはEC2,Lambdaなどのサービスがあり、そういったサービスとの連帯や、CloudTrailなどで状況把握も簡単です。
また、先ほどの点ともかぶりますが、IAMによる権限制御。これは規模が一定以上を超えるとこういった地味な点が情報システム担当者の負担軽減につながります。こういった点は非常にメリットになるケースが考えられます。
いままでもバージニアリージョンではすでにClaude 3.5をつかえていましたが、企業によってはサービスコントロールポリシーによるリージョン制限をかけている企業もゼロではありません。
日本企業の場合、日本のリージョンを利用しているケースがほとんどだと思いますので、そういった意味でもリージョン内完結という点が非常にメリットとなりえます。
3.レスポンス速度向上
リージョンをまたぐと遅延が発生します。実際に東京から北米と今回の東京内完結となれば数秒の誤差が生まれます。同じサービスであれば遅延がないことに越したことないので、システムにおいてこの点もメリットです。
つまり今回のアップデートは、まさに「日本企業様各位」みたいな感じです。
他社のAPI料金一覧
モデル | 入力料金 (100万トークン) | 出力料金 (100万トークン) | 入力コンテキスト | 最大出力トークン |
---|---|---|---|---|
GPT-4o | $5.00 | $15.00 | 128K | 4K |
GPT-4o mini | $0.15 | $0.60 | 128K | 16K |
GPT-3.5 Turbo | $0.50 | $1.50 | 16K | 4K |
Claude 3.5 Sonnet | $3.00 | $15.00 | 200K | 8K |
Claude 3 Haiku | $0.25 | $1.25 | 200K | 4K |
Gemini 1.5 Pro | $3.50 | $3.50 | 1M | 8K |
Gemini 1.5 Flash | $0.35 | $1.05 | 1M | 8K |
先日API料金ついては現在時点のをまとめましたので再掲にはなります。基本Bedrockもオンデマンドの料金は変わりません。
なお各社が提供するAWS請求代行サービスでは基本的にマーケットプレイス系の料金は割引対象外なので、AWS請求代行を使ってネイティブAPIより料金を安くしようというのは難しいです。
Bedrockについては料金表が複雑すぎて1ページにまとめるのは難しかったです。下記にURLを記載したのでそれを直接ご確認ください。
ちなみに私が確認した時点では東京リージョンのオンデマンド料金はこのURLには乗ってませんでした。おそらくバージニアとかといっしょになるとはおもいますがという感じです。
基本的に料金は100万トークンあたり直せばネイティブAPIと一緒です。
参考URL
Anthropic:
https://docs.anthropic.com/en/docs/about-claude/models
Generative AI on Vertex AI:
https://cloud.google.com/vertex-ai/generative-ai/docs/learn/models?hl=ja
Bedrock:
https://aws.amazon.com/jp/bedrock/pricing/
最近の生成AI動向
なにやらちょっとOpenAIの雲行きが怪しくなってきたような報道もおおくなってきました。
GPT-5に相当するものが年内に本当にでるのか。仮にでたとしてもClaude 3.5 opusを待ち構えているAnthropicの精度より高いのかどうか。
逆にAnthropicは完全自然言語のみでシステムが作成できるArtifactの強化版のようなものを検討しているとのうわさもでてきたり。
そうなってくると現在最高精度で料金も同等ならClaude 3.5に流れるのは必至です。
ただこれも半年前にはClaudeも日本語ではまともに利用できなかったぐらいなので、また半年後になにが起こっているかも正直わかりません。
我々が対応できることとしたら常に体制を変えれる「基盤」を構築しておく。そうしておくことでその時に動くのではなく事前にとりくんでいくことが大事そうです。