2025年のBaseten料金体系を徹底解説

Stevia Putri
Written by

Stevia Putri

Amogh Sarda
Reviewed by

Amogh Sarda

Last edited 2025 11月 6

Expert Verified

AIを使った製品開発は、今できる最もエキサイティングなことの一つです。しかし、正直なところ、インフラコストの把握は本当に頭が痛い問題です。専門用語やインスタンスタイプ、トークンごとの課金モデルの海に迷い込むのはあまりにも簡単です。そうした議論でよく名前が挙がるプラットフォームの一つが、スピードと効率性をうたい、機械学習モデルのデプロイとスケーリングで人気のあるBasetenです。

ここでの私の目標はシンプルです。Basetenの料金体系について、無駄なく分かりやすいガイドを提供することです。様々な料金モデルを分析し、最終的な請求額を左右する要因を説明し、注意すべき点をいくつか指摘します。また、Basetenのような生のインフラ上で構築する場合と、すぐに使える完全に統合されたアプリケーションを使用する場合の違いを理解することも重要です。

Basetenとは?

Basetenは、テクノロジー業界で「推論インフラストラクチャ」プラットフォームと呼ばれるものです。平たく言えば、他のアプリケーションがAIモデルを利用できるように、その実行に必要な高性能コンピュータ(GPU)と基盤となるソフトウェアを提供します。独自のカスタムモデルや人気のオープンソースモデルをデプロイするための堅牢な場所を必要とする、機械学習エンジニアや開発者向けに作られています。

このように考えてみてください。Basetenは世界クラスのエンジンを提供しますが、車の残りの部分は自分で組み立てる必要があります。アプリケーション、ユーザーインターフェース、それらすべてをビジネスツールに接続するロジック、その部分はあなた次第です。トラフィックの急増に対応するオートスケーリングや、ラグを減らすための高速なコールドスタートなど、開発者の作業を楽にするいくつかの強力な機能を備えています。しかし、その核心は、AIの技術的な側面に積極的に関わることを厭わない開発者のためのツールです。

Basetenの様々な料金モデルを理解する

Basetenの料金は単一の数字ではありません。プラットフォームの利用方法によって変わる、さまざまなモデルの組み合わせです。主な課金方法を分析してみましょう。

モデルAPI料金:人気モデルに対するトークンごとの支払い

これはBasetenを始める最も簡単な方法です。DeepSeekやLlamaのような、人気があり事前に最適化されたモデルのライブラリにアクセスし、使用量に応じて支払うことができます。コストは100万トークンあたりで計算されます(トークンは単語の小さな断片で、約4文字です)。「入力」トークン(モデルに送信するもの)と「出力」トークン(モデルが返すもの)で料金が異なることを知っておくと良いでしょう。

Pro Tip
この従量課金モデルは、実験やカスタムモデルを必要としないアプリには非常に便利です。唯一の注意点は、使用量が急増するとコストが予測不能になり、すぐに膨れ上がる可能性があることです。

専用デプロイメント料金:コンピューティングパワーに対する分単位の支払い

独自のモデルを持っている場合や、特定のオープンソースモデルで保証されたパフォーマンスが必要な場合は、おそらく専用デプロイメントを利用することになるでしょう。ここでは、NVIDIA GPUや標準CPUのような特定のハードウェアが、あなたのためだけに稼働している時間に対して支払います。請求は非常に細かく、分単位で計算されます。

これにより多くの制御が可能になりますが、同時に、どれだけ使用されているかを管理する責任も伴います。Basetenにはスケール・トゥ・ゼロ機能があるため、完全にアイドル状態のハードウェアに対しては支払う必要はありません。それでも、コストはアプリケーションのトラフィックに直接連動しているため、忙しい日は請求額も大きくなります。

トレーニングインフラ料金:ファインチューニングに対する分単位の支払い

独自のデータを使ってモデルを微調整する必要がある場合、Basetenはそのためのインフラも提供しています。専用デプロイメントと同様に、料金は使用するハードウェアに基づいており、分単位で請求されます。

プラン階層とエンタープライズオプション

使用量ベースの料金に加えて、Basetenにはいくつかの異なる階層があります。Basicプランは完全な従量課金制です。Proプランは、より多くのボリュームを持つチーム向けで、より良いレートで交渉できる可能性があります。Enterpriseプランは、Basetenを自社のクラウドでホスティングするなど、複雑なニーズを持つ大企業向けです。AWS Marketplace上のBasetenのオファリングは、月額5,000ドルの契約から始まっており、本格的な利用には相応の価格が伴うことがわかります。

Basetenの料金に影響を与える主な要因

ウェブサイトに表示されている価格はほんの始まりに過ぎません。実際の月々の請求額は、把握しておくべきいくつかの主要な変数によって変動します。

ハードウェアの選択が請求額に与える影響

コストの大部分は、選択するGPUの種類によって決まります。最新のNVIDIA H100 GPUでモデルを実行するのは、古くて性能の低いT4を使用するよりもはるかに高価です。パフォーマンスの差は大きいですが、価格も同様です。最高級のハードウェアへのアクセスに対して支払うのであり、それは安くはありません。

わずか1時間の使用でコストがどれだけ違うかを示す簡単な比較です:

GPUインスタンスVRAM1時間あたりのコスト(概算)
T416GB~$0.63
A10G24GB~$1.21
A100 (80GB)80GB~$4.00
H100 (80GB)80GB~$6.50

トラフィックとオートスケーリングが請求額に与える影響

コストの大部分は分単位であるため、請求額は製品を使用している人数に直接結びついています。トラフィックが急増するアプリがある場合、Basetenのオートスケーリング機能がより多くのGPUインスタンスを起動して対応します。これは物事をスムーズに運営するためには素晴らしいことですが、コストも同様に急上昇することを意味します。これにより、トラフィックが予測不能なビジネスでは予算編成が本当に頭の痛い問題になる可能性があります。

コールドスタートとモデルの複雑性が請求額に与える影響

「コールドスタート」とは、モデルがアイドル状態から新しいリクエストを処理するために起動する必要があるときのわずかな遅延のことです。Basetenはこれをできるだけ速くするために努力してきましたが、特に大規模で複雑なモデルでは避けられない遅延がまだあります。これもまた、チームの誰かがユーザーを満足させるために管理し、最適化しなければならない技術的な詳細の一つです。

隠れたコスト:生のインフラだけでは不十分な場合

Basetenから受け取る請求書は、コンピューティングパワーのみをカバーしています。しかし、それはパズルの一片に過ぎません。本当のコスト、そしてしばしば最大のボトルネックは、その周りに構築しなければならない他のすべてです。

Reddit
本当のボトルネックは、多くの場合ワークフローの統合です。

世界最速のモデルを持っていても、それが実際のビジネスプロセスに組み込まれていなければ、あまり役に立ちません。ここで、開発者の時間とリソースという隠れたコストが積み重なり始めます。

例えば、Basetenでホストされているモデルをサポートチームにとって有用なものにするために、エンジニアは以下のことを行う必要があります:

Basetenはエンジンを提供しますが、車を組み立てるのはまだ開発者チームの仕事です。ただ運転したいだけのチームにとって、eesel AIのような統合プラットフォームはエンジン車の両方を扱います。ヘルプデスク、Slack、ナレッジベースに数ヶ月ではなく数分で接続できるため、インフラについて心配する必要は全くありません。

eesel AIが様々なナレッジソースと統合して包括的なサポートオートメーションを提供する方法を説明するインフォグラフィック。これはBasetenの料金とオールインワンソリューションを比較する際に重要な要素です。
eesel AIが様々なナレッジソースと統合して包括的なサポートオートメーションを提供する方法を説明するインフォグラフィック。これはBasetenの料金とオールインワンソリューションを比較する際に重要な要素です。

Baseten料金表

全体像を把握していただくために、Basetenのウェブサイトで公開されている情報に基づいた詳細な料金表を以下に示します。

モデルAPI(100万トークンあたりの価格)

モデル入力コスト出力コスト
GPT OSS 120B$0.10$0.50
Qwen3 Coder 480B$0.38$1.53
Qwen3 235B 2507$0.22$0.80
Kimi K2 0905$0.60$2.50
DeepSeek V3.1$0.50$1.50
DeepSeek R1 0528$2.55$5.95
DeepSeek V3 0324$0.77$0.77

専用デプロイメント(分あたりの価格)

GPUインスタンススペック分あたりの価格
T416 GiB VRAM, 4 vCPUs, 16 GiB RAM$0.01052
L424 GiB VRAM, 4 vCPUs, 16 GiB RAM$0.01414
A10G24 GiB VRAM, 4 vCPUs, 16 GiB RAM$0.02012
A10080 GiB VRAM, 12 vCPUs, 144 GiB RAM$0.06667
H100 MIG40 GiB VRAM, 13 vCPUs, 117 GiB RAM$0.0625
H10080 GiB VRAM, 26 vCPUs, 234 GiB RAM$0.10833
B200180 GiB VRAM, 28 vCPUs, 384 GiB RAM$0.16633
CPUインスタンススペック分あたりの価格
1x21 vCPU, 2 GiB RAM$0.00058
2x82 vCPUs, 8 GiB RAM$0.00173
4x164 vCPUs, 16 GiB RAM$0.00346
8x328 vCPUs, 32 GiB RAM$0.00691
16x6416 vCPUs, 64 GiB RAM$0.01382

用途に適したツールを選ぶ

Basetenは、技術チームにとって非常に強力で柔軟なプラットフォームです。カスタムモデルをデプロイする必要があり、それに伴うインフラを管理する準備ができている機械学習エンジニアがいる場合、それは素晴らしい選択肢です。使用量ベースのBasetenの料金は柔軟性を提供しますが、コストがハードウェア、トラフィック、モデルの複雑さによって変動するジェットコースターのようになる可能性も意味します。

しかし、サポート、IT、またはオペレーション部門のほとんどの人々にとって、目標はGPUを管理することではありません。チケットの解決時間を短縮したり、従業員に即座に回答を提供したりするなど、現実の問題を解決することです。インフラは、そこに至るための一つの手段に過ぎません。

このビデオでは、AI製品の効果的な価格設定と再価格設定の方法を探ります。使用量の測定、コスト分析、マージンの考慮事項など、Basetenの料金を評価する際に重要なすべての要素をカバーしています。

もしあなたの目標がカスタマーサポートを自動化すること、または今日チームにAIの力を与えることであるなら、生のインフラから始める必要はありません。eesel AIのようなプラットフォームは、予測可能で透明性のある価格設定ですぐに使えるソリューションを提供します。既存のデータから学習し、ヘルプデスクに数分で直接接続できるAIエージェントコパイロットを設定できます。これにより、ハードウェアではなく結果に集中することができます。

数ヶ月ではなく数分でAIを導入

あなたのサポートチームやITチームが必要としているのは、長期的なインフラプロジェクトではなく、ソリューションです。eesel AIを使えば、一行のコードも書かずに、既存のツール全体に強力なAIエージェントやコパイロットを導入できます。

得られるもの:

  • 予測可能な価格設定: GPU使用量やトラフィックの急増による予期せぬ請求はありません。

  • 即時統合: Zendesk、Slack、Confluenceなど、100以上のツールにワンクリックで接続できます。

  • リスクフリーのシミュレーション: 過去の何千ものチケットでAIをテストし、本番稼働前にその影響を確認できます。

今すぐeesel AIの無料トライアルを開始して、AIオートメーションがどれほどシンプルか実感してください。

よくある質問

Basetenの料金は、主に選択したデプロイモデル(モデルAPIか専用デプロイメントか)、使用する特定のハードウェア(GPU/CPU)、そしてアプリケーションのトラフィックパターンによって決まります。最終的な請求額は、消費されたコンピューティングパワーの種類と使用時間の両方を反映したものになります。

ハードウェアの選択は、Basetenの料金に大きく影響します。H100のようなより強力なGPUは、T4のような性能の低いオプションに比べて分あたりのコストがかなり高くなります。モデルのニーズに適したGPUを選択することが、コスト最適化には不可欠です。

はい、Basetenの料金は予測不能なトラフィックパターンによって変動する可能性があり、特に専用デプロイメントで顕著です。プラットフォームのオートスケーリング機能がトラフィックの急増に対応するためにより多くのGPUインスタンスをプロビジョニングし、ピーク時の使用量に応じてコストが直接増加します。これにより、需要が変動するアプリケーションの予算編成が難しくなることがあります。

直接的なコンピューティングコスト以外に、Basetenの料金における隠れた費用には、統合に要する多大な開発者時間が含まれることがよくあります。カスタムのアプリケーションロジックやユーザーインターフェースを構築し、デプロイしたモデルを既存のビジネスツールに接続する必要があり、これがかなりのオーバーヘッドとなります。

はい、Basetenは異なるプラン階層を提供しています:Basic(従量課金制)、Pro(より大量の利用があるチーム向けで、料金交渉の可能性あり)、そしてEnterprise(カスタムセットアップを必要とする大企業向けで、多くの場合月額5,000ドル程度から)。これらの階層は、さまざまな使用レベルとサポートニーズに対応しています。

BasetenのモデルAPIの料金は、100万入力・出力トークンごとに計算されるため、事前に最適化されたモデルに対する従量課金モデルです。対照的に、専用デプロイメントは、カスタムまたはオープンソースモデルを実行している特定のハードウェア(GPU/CPU)に対して分単位で請求されます。

この記事を共有

Stevia undefined

Article by

Stevia Putri

Stevia Putri is a marketing generalist at eesel AI, where she helps turn powerful AI tools into stories that resonate. She’s driven by curiosity, clarity, and the human side of technology.