ホーム/統合/LangChain
統合 · 60 秒セットアップ · マークアップなし

LangChain + OrcaRouter

LangChain's ChatOpenAI class takes a base_url parameter. Pointing it at OrcaRouter gives every chain, agent, and retriever automatic failover and zero-markup pricing without touching the rest of your graph.

セットアップ

5 ステップ。

  1. 1.Install: pip install langchain-openai
  2. 2.Import ChatOpenAI from langchain_openai
  3. 3.Construct with base_url='https://api.orcarouter.ai/v1' and api_key='sk-orca-…'
  4. 4.Set the model to any OrcaRouter-supported model ID.
  5. 5.Use it anywhere LangChain expects a chat model — chains, agents, tools.
設定
from langchain_openai import ChatOpenAI

llm = ChatOpenAI(
    base_url="https://api.orcarouter.ai/v1",
    api_key="sk-orca-...",
    model="claude-sonnet-4",
    temperature=0,
)

response = llm.invoke("Explain retrieval-augmented generation in one paragraph.")
print(response.content)
なぜ LangChain を OrcaRouter 経由でルーティングするのか?

LangChain agents do lots of short, bursty calls that are sensitive to rate limits. OrcaRouter spreads those calls across healthy providers automatically and gives you one cost-attribution view for the whole chain.

その他の統合

LangChain を今日から OrcaRouter 経由で。

1 分以内に登録、sk-orca-… キーを取得して LangChain に貼り付け。トークンに上乗せなし、すべてのプロバイダー間で自動フェイルオーバー。

API キーを取得 →