Hypermode Model Router 预览版 – OpenRouter 的替代方案
Model Router 来了。一个 API,一份账单,多种模型。 注册 定价博客文档 登录
2025年5月6日
隆重推出 Model Router:通过无缝访问模型快速迭代
通过一个 API 连接到开源和商业 AI 模型。Hypermode 的 Model Router 简化了跨 LLM 和 Embedding 模型的编排
Kevin Mingtarja
Hypermode 高级工程师
Jessica Feng
Hypermode 首席营销官
前沿和专业模型每天都在进步。 现在,开发人员可以选择的模型数量空前,每个模型都针对不同的任务、预算和基于特定用例的性能要求进行了优化。 但是,将多个模型集成到应用程序中仍然过于复杂——直到现在。
今天,我们很高兴推出 Model Router,这是 Hypermode 中一项强大的新功能,使开发人员可以通过单个统一的 API 连接到开源和商业语言模型。 Model Router 使您可以使用已经熟悉和喜爱的 SDK 和工具,同时让您可以完全灵活地在不同模型之间切换——所有这些都保持了以开发人员为先、可组合的体验。
不断增长的用例加速了模型的扩散
随着 AI 能力的扩展,开发人员的选择也在增加。 凭借 LLaMA 和 DeepSeek 等开源模型,以及与 OpenAI 的 GPT、Anthropic 的 Claude 和 Google 的 Gemini 等商业产品竞争,开发人员经常发现自己需要同时处理多个 API、SDK 和定价结构。
这种复杂性不仅限于推理模型。为向量搜索、检索增强生成 (RAG) 和推荐系统提供支持的 Embedding 模型也存在显着的分散性。 但是,这些模型不是可以互换的:它们产生不同的向量表示,因此很难在不重新训练或重新校准下游系统的情况下在提供商之间切换。
每个提供商都有自己的集成要求、隐藏的切换成本和运营权衡,使得在没有管理一系列订阅的情况下,难以轻松地试验不同的模型、优化成本或根据性能动态地路由请求。
但是,随着模型提供商采用与 OpenAI 兼容的 API 标准,开发人员可以使用熟悉的 SDK 和完全不同的后端来访问模型输入和输出。 这种开放模式是管理模型碎片化和快速扩散的第一步,而这些碎片化和快速扩散通常会导致开发复杂性增加、维护成本更高以及在适应 AI 研究的最新突破方面的灵活性有限。
隆重推出 Model Router
Model Router 通过提供单个 API 连接到各种 AI 模型来消除这些痛点。 无需管理多个 API 集成,开发人员可以使用 Model Router 来:
- 根据性能、定价或可用性,在开源模型和商业模型之间无缝切换。
- 通过将请求路由到给定任务最具成本效益的模型来优化成本。
- 通过自动回退机制来提高可靠性,以防 API 中断或速率限制。
- 通过动态选择不同的模型而无需重写应用程序逻辑来更快地试验和迭代。
使用 Model Router,您可以灵活地选择最适合这项工作的 AI 模型——无论是用于生产工作负载的强大商业模型,还是用于经济高效的实验的开源模型。
主要功能包括:
- 统一 API 访问:多个 AI 模型的一个集成点,减少了开发开销。
- 回退和负载平衡:通过在多个模型和提供商之间分配请求来提高可靠性。
- 可定制的模型偏好:根据业务需求确定特定模型或提供商的优先级。
- 成本和性能优化:动态选择模型以优化预算和响应时间。
- 安全性和合规性:通过在必要时选择特定区域的模型来保持对数据隐私和合规性的控制。
- 开发者敏捷性:通过 OpenAI SDK、Vercel AI SDK 和 Modus SDK 直接访问 Model Router,以实现精细的控制和迭代。
为什么 Model Router 很重要
虽然模型创新正在加速,但将一个模型换成另一个模型并不像更新 API 密钥那么简单。 实际上,开发人员面临着隐藏的成本:tokenization、输出结构、系统提示行为和 Embedding 表示的差异通常需要进行大量的下游调整。 在没有编排层的情况下在模型之间迁移可能会导致质量下降、额外的维护负担并降低迭代速度。
尽管模型可能永远无法完全互换,但无缝集成多个模型的能力将是一种竞争优势。 Model Router 通过提供统一的 API 来简化开发从而实现快速迭代——允许您跨模型进行测试、调整和部署,而不会产生隐藏的切换成本。 它抽象掉了低级差异,同时让组织可以完全控制设置和行为。
通过为多样化的 AI 生态系统提供单个 API,Model Router 为开发人员和企业解锁了新的可能性。 您可以利用 AI 创新的全部范围,同时保持对基础设施的灵活性和控制,而不是被锁定在一个提供商中。
快速开始
Model Router 很容易上手。 在 Hypermode 控制台中,生成一个 API 密钥并将其放入您喜欢的框架中。 查看 Hypermode 文档 了解更多详细信息。
例如,在 Vercel AI SDK 中,您可以调用托管模型。
import{createOpenAI}from"@ai-sdk/openai"
import{generateText}from"ai"
// Configure with your Hypermode Workspace API key and Hypermode Model Router base url
consthypermode=createOpenAI({
name:"hypermode",
apiKey:"<YOUR_HYP_WKS_KEY>",
baseURL:"https://models.hypermode.host/v1",
})
asyncfunctiongenerateHoliday(){
try{
const{text,usage,providerMetadata}=awaitgenerateText({
model:hypermode("o3-mini"),
prompt:"Invent a new holiday and describe its traditions.",
providerOptions:{hypermode:{reasoningEffort:"low"}},
})
// Print the response
console.log(text)
return{text,usage,providerMetadata}
}catch(error){
console.error("Error generating text:",error)
throwerror
}
}
// Call the function
generateHoliday()
您也可以直接访问 API。
importrequests
importjson
#YourHypermodeWorkspaceAPIkey
api_key="<YOUR_HYP_WKS_KEY>"
#UsetheHypermodeModelRouterbaseurl
base_url="https://models.hypermode.host/v1"
#APIendpoint
endpoint=f"{base_url}/chat/completions"
#Headers
headers={"Content-Type":"application/json","Authorization":f"Bearer {api_key}"}
#Requestpayload
payload={
"model":"meta-llama/llama-4-scout-17b-16e-instruct",
"messages":[
{"role":"system","content":"You are a helpful assistant."},
{"role":"user","content":"What is Dgraph?"},
],
"max_tokens":150,
"temperature":0.7,
}
#MaketheAPIrequest
response=requests.post(endpoint,headers=headers,data=json.dumps(payload))
#Checkiftherequestwassuccessful
ifresponse.status_code==200:
#Parseandprinttheresponse
response_data=response.json()
print(response_data["choices"][0]["message"]["content"])
else:
#Printerrorinformation
print(f"Error: {response.status_code}")
print(response.text)
AI 的未来是开放、灵活和可互操作的
Model Router 现已在 Hypermode 中可用,为全球开发人员带来了更高水平的 AI 模型编排。 无论您是希望优化 AI 成本的企业,还是尝试不同模型的初创公司,Model Router 都能帮助您构建更智能、更适应性强的 AI 应用程序。
准备好体验无缝的 AI 模型集成了吗? 立即注册 Hypermode 并开始使用 Model Router 构建。 请继续关注更多更新,因为我们将继续扩展对新模型和功能的支持。 查看所有帖子 条款隐私 Hypermode © 2025