統合 · 60 秒セットアップ · マークアップなし
LangChain + OrcaRouter
LangChain's ChatOpenAI class takes a base_url parameter. Pointing it at OrcaRouter gives every chain, agent, and retriever automatic failover and zero-markup pricing without touching the rest of your graph.
セットアップ
5 ステップ。
- 1.Install: pip install langchain-openai
- 2.Import ChatOpenAI from langchain_openai
- 3.Construct with base_url='https://api.orcarouter.ai/v1' and api_key='sk-orca-…'
- 4.Set the model to any OrcaRouter-supported model ID.
- 5.Use it anywhere LangChain expects a chat model — chains, agents, tools.
設定
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://api.orcarouter.ai/v1",
api_key="sk-orca-...",
model="claude-sonnet-4",
temperature=0,
)
response = llm.invoke("Explain retrieval-augmented generation in one paragraph.")
print(response.content)なぜ LangChain を OrcaRouter 経由でルーティングするのか?
LangChain agents do lots of short, bursty calls that are sensitive to rate limits. OrcaRouter spreads those calls across healthy providers automatically and gives you one cost-attribution view for the whole chain.
その他の統合
LangChain を今日から OrcaRouter 経由で。
1 分以内に登録、sk-orca-… キーを取得して LangChain に貼り付け。トークンに上乗せなし、すべてのプロバイダー間で自動フェイルオーバー。
