Anthropicは、ダリオ・アモデイが率いる企業であり、最近Akamai Technologiesと18億ドル規模の契約を締結し、特にClaudeプラットフォーム向けに、自社のAIモデルに必要な計算能力をより大きく確保することを目指している。
7年間有効なこの契約は、Akamaiの歴史上、これまでで最大の契約であり、AIインフラへの需要が、高度なテック企業でさえ対応が難しくなるほどのペースで増大しているタイミングで結ばれたものだ。
Summary
Claudeの成長がAnthropicを後押し、AI分野での計算能力拡大を目指してAkamaiと合意
前述の取引の背景には、Anthropicの成長だけでなく、クラウド市場全体のより大きな変化がある。
実際、ここ数ヶ月で人工知能セクターは、ますます明らかになりつつある構造的な課題を示している。
すなわち、高度なAIモデルを構築するには、膨大な計算能力、専用GPU、そして継続的な負荷に耐えうる分散インフラが必要だということだ。
事実、サンフランシスコで開催されたCode with Claudeカンファレンスで、アモデイは、Anthropicが2026年第1四半期において、年換算収益および自社サービス利用において80%の成長を記録する見込みだと述べた。
この拡大の重要な一部は、コーディング、オートメーション、そして人工知能による支援ソフトウェア開発といった用途でClaudeが活用されることに起因すると見られている。
こうした成長こそが、AI企業に、従来のハイパースケーラーをはるかに超えた新たな計算能力の供給源を探すことを強いている。
実際、AnthropicはAkamaiとの契約にとどまらない。ここ数ヶ月の間に、Google Cloud、Amazon Web Services、CoreWeave、さらにはイーロン・マスクのSpaceXとも提携している。
ここから浮かび上がるメッセージは非常に明確だ。人工知能の本当の戦いは、もはや言語モデルそのものだけではなく、それらを可能にするインフラへのアクセスをめぐる戦いになっているということである。
Akamaiのアイデンティティ転換:インターネット配信からAIインフラへ
一方で、AkamaiにとってもAnthropicとの合意は、単なる商業的パートナーシップをはるかに超える意味を持つ。
歴史的に、同社は主にコンテンツ配信とサイバーセキュリティサービスで知られてきたが、人工知能の爆発的な拡大は、新たな戦略的チャンスを生み出している。
130カ国以上に分散した4,000を超える拠点から成るグローバルネットワークのおかげで、Akamaiは、現代のAIワークロードの要件にうまく適応し得る分散型インフラを保有している。
そして、これこそが今回の取引で最も興味深い側面の一つだ。近年のクラウド市場は、AWS、Google Cloud、Microsoft Azureといった少数の中央集権的なハイパースケーラーによって主に支配されてきた。
しかし、人工知能によって利用可能なリソースへの圧力が大幅に高まり、多くの企業が、より分散的で柔軟なソリューションを模索し始めている。
この文脈において、Anthropicは、長期的には従来の大手プロバイダーだけに依存することでは不十分となる可能性があると理解したようだ。
このニュースに対し、投資家たちが熱狂的に反応したのも不思議ではない。
発表後、Akamaiの株価は約28%上昇し、市場が人工知能を多くのテクノロジー企業にとっての抜本的な変革機会として認識していることがはっきりと示された。
アナリストの試算によれば、この契約は本格稼働後にはAkamaiの年間売上高のおよそ6%を占める可能性があり、最初の経済的インパクトは2026年末までに現れ始めると見込まれている。
この進展はまた、AIセクターがテクノロジーのバリューチェーンをどのように再構築しているかも示している。恩恵を受けているのは、言語モデルを開発する企業だけではない。インフラ、エネルギー、データセンター、そして接続性を提供できるすべての事業者もまた利益を得ている。
しかし問題は、この「競争」がますますコスト高になっていることだ。高度なAIモデルの学習と維持には継続的に数十億ドル規模の投資が必要であり、この分野は、巨額の資本にアクセスできるわずかな大企業にますます集中していく傾向にある。
AIの真の課題はソフトウェアだけでなくインフラにある
AnthropicとAkamaiの契約は、人工知能に関する公共の議論の中でしばしば過小評価されている現実を物語っている。すなわち、現代AIの主な制約は、もはやアルゴリズムだけではなく、インフラにあるということだ。
ここ数年、この分野は主にチャットボットや言語モデル、そして高度な機能間の競争に焦点を当ててきた。
しかし今日、表面には見えにくいものの、もしかするとそれ以上に重要かもしれない第二の問題が浮上している。それが、計算能力へのアクセスをめぐる争いだ。AI企業は実際、膨大な量のエネルギー、GPU、そしてデータ帯域を消費している。
モデルの新しい世代が登場するたびに、その前世代を上回るリソースが必要となり、投資のスパイラルが生じている。その結果、資金力のあるグループだけがますます有利になる危険性が高まっている。
この状況に置かれているのはAnthropicだけではない。OpenAI、Google、Metaもまた、チップ、データセンター、そして生成AIの成長を支えるのに十分なクラウドインフラを確保するために、数十億ドル規模の投資を行っている。
このシナリオは、業界の未来に関する重要な疑問も提起する。人工知能がますます巨大なインフラ投資に依存するようになればなるほど、市場が徐々に開放性を失い、より中央集権的になっていくリスクがある。
さらに、計算リソースへの圧力は、エネルギーコストや環境持続可能性にも影響を及ぼしかねない。
というのも、AIの拡大には膨大な電力と高度な冷却システムが不可欠であり、データセンターをますます重要な戦略的アセットへと変貌させているからだ。

