ERPC、フランクフルトの大型 Solana RPC ノードに EPYC 5th Gen CPU(Turin)を導入。ms単位で勝負するワークロード向けに、HTTP / WebSocket / Unlimited Endpoints を次の性能段階へ
ERPC、フランクフルトの大型 Solana RPC ノードに EPYC 5th Gen CPU(Turin)を導入。ms単位で勝負するワークロード向けに、HTTP / WebSocket / Unlimited Endpoints を次の性能段階へ

ELSOUL LABO B.V.(本社:オランダ・アムステルダム、代表取締役 CEO:川崎文武)および Validators DAO が運営する ERPC は、フランクフルト(FRA)リージョンにおいて、大型 RPC ノードへの EPYC 5th Gen CPU(Turin)導入を完了しました。
本対応により、HTTP / WebSocket / Unlimited Endpoints を中心とした RPC ワークロードにおいて、ピーク時および高並列実行時の処理余力が拡張されています。
フランクフルトが中核であり続ける理由
ERPC がフランクフルトへの投資を継続してきた理由は、Solana の実運用において結果が安定して成立する条件が、このリージョンに集約されているためです。
フランクフルトは、主要バリデータおよびステークが高密度に配置されており、Shreds の受信、追従、投票、状態更新といった処理が、短い経路で連続的に成立しやすい構造を持っています。この構造は、単純な地理的距離ではなく、実際のネットワーク経路と実行主体の配置に基づくものです。
その結果、平均的な遅延だけでなく、遅延のばらつきが抑えられ、外部要因が重なった局面においても、実行結果が崩れにくい状態が維持されます。この特性は、ERPC の RPC 実行基盤において、結果の再現性を成立させるための前提条件となっています。
今回の刷新で、どの局面が変わるのか
今回の EPYC 5th Gen CPU(Turin)導入は、平均応答時間、ピーク時の処理余力、高並列実行時の安定性を同時に引き上げるための基盤強化です。
ms単位で勝負する開発者や、高頻度取引を含む金融系ユースケースでは、負荷が集中する瞬間や同時実行が重なる局面での挙動が、そのまま処理結果に反映されます。
こうした局面においても、RPC 側の処理が詰まらず、実行が継続する状態を維持するため、実行基盤を次の性能段階へ移行しています。
Unlimited Endpoints を含む高負荷利用においても、同時接続数やリクエスト密度が上昇した状況下で、処理余力を安定して確保できる構成です。
EPYC 5th Gen CPU(Turin)を選ぶ理由
EPYC 5th Gen(Turin)は、大規模なコア数とスレッド数を前提としながら、高いクロック水準を維持したまま継続的に運用できる CPU 世代です。
Solana のワークロードでは、短い周期で負荷の状態が切り替わり、ピークが連続して発生します。
この環境下では、瞬間的な性能だけでなく、負荷が重なった状態でも演算性能と動作の安定性を同時に維持できることが、追従性や処理結果の安定に直結します。
CPU アーキテクチャの大幅改善を伴う Turin 世代は、最大性能と継続性能の両立という点において、Solana の実行主体として合理的な特性を備えており、RPC 実行基盤の中核を担う構成として採用しています。
DDR5 6400MHz がもたらす実効性能
Solana の RPC ワークロードでは、計算処理とメモリアクセスが高頻度かつ並列に発生します。ここで効くのは、瞬間的な帯域の高さに加えて、継続負荷下でもメモリ速度と挙動が一定に保たれる構成です。
デスクトップ系プラットフォームでは、DIMM 構成が増えるほどメモリの公称速度が下がる前提が存在します。たとえば Ryzen 9 9950X の仕様では、2 枚構成が DDR5-5600、4 枚構成が DDR5-3600 という形で上限が規定されています。
今回のフランクフルト大型 RPC ノードでは、EPYC 5th Gen(Turin)を採用し、サーバー用途として多チャネルのメモリ帯域を前提にした構成を固定しています。EPYC 9005(Turin)世代は 12 チャネル構成を持ち、対応プラットフォームでは DDR5-6400 を含む高帯域メモリ条件が成立します。
NVMe Gen5 とストレージ選定の重要性
Solana のノード運用では、ledger / blockstore を中心とした大量のデータを継続的に読み書きする前提が成立します。 この処理特性において、ストレージの I/O 特性は実行結果に直接影響します。
現在、多くの運用構成では EPYC 4th Gen 世代と NVMe Gen4 を前提とした構成が主流です。一方で、NVMe Gen5 は調達性と運用条件の両面で制約が多く、実運用で安定して利用できる構成は限られています。
今回導入した NVMe Gen5 ストレージは、Solana ワークロードにおいて連続的な読み書きが発生する状況でも、I/O 特性をさらに安定して高速性を維持できます。パートナーデータセンターとともにNVMe Gen5 各種の中でもテストを行い、Solana ワークロードに最適なものを選定いたしました。
ERPC を選ぶメリット
ERPC は、もともと自分たちのプロジェクト運用から生まれた RPC 基盤です。
NFT カードのミントや、100連ガチャのように短時間で大量のトランザクションが発生する処理を実行する中で、既存の RPC 環境では処理が追いつかず、成立結果が安定しない状況が発生しました。
この課題に対処するため、私たちは自分たちのユースケースに耐えうる RPC 環境を自ら構築する必要がありました。
この課題に対処するため、私たちは自分たちのユースケースに耐えうる RPC 環境を自ら構築する必要がありました。
その後、他のプロジェクトの課題としても、高負荷処理時に RPC が制約点として顕在化しているケースが多く存在することを把握しました。
そこで、構築した基盤を実際のワークロードで利用してもらった結果、処理の成立状況や負荷時の安定性について具体的な評価を得ることができました。
そこで、構築した基盤を実際のワークロードで利用してもらった結果、処理の成立状況や負荷時の安定性について具体的な評価を得ることができました。
ERPC は、こうした実運用の経験をもとに、高負荷トランザクションに耐え続けることを前提として設計されています。
現在も、実際の利用状況とフィードバックをもとに、RPC 実行基盤の改善を継続しています。
現在も、実際の利用状況とフィードバックをもとに、RPC 実行基盤の改善を継続しています。
ERPC プロジェクトの原点とこれから
ERPC の起点は、自分たちのプロジェクト運用における実体験にあります。
高負荷なトランザクション処理を安定して成立させるためには、RPC 側の構成、処理余力、追従性を含めた実行基盤全体を設計する必要がありました。
この前提は、特定のプロジェクトに限らず、多くの Solana プロジェクトに共通するものでした。
この前提は、特定のプロジェクトに限らず、多くの Solana プロジェクトに共通するものでした。
ERPC は、高品質な Solana ネットワークを実運用で成立させるための基盤を、再現性をもって提供することを目的としています。
今後も、実際のワークロードと利用状況をもとに、RPC 実行基盤の改善を継続していきます。
今後も、実際のワークロードと利用状況をもとに、RPC 実行基盤の改善を継続していきます。
ご利用者の皆様による実運用での利用とフィードバックは、この基盤をさらに強化しています。
ERPC は、その還元として、今後も RPC 実行基盤の高速化と耐久性向上に投資を続けます。
いつも ERPC をご利用いただき、ありがとうございます。


