Llama 4 Maverick 17B-128E
使用集合让一切井井有条
根据您的偏好保存内容并对其进行分类。
Llama 4 Maverick 17B-128E 是 Llama 4 中体量最大、功能最强大的模型。它使用专家组合 (MoE) 架构和早期融合来提供编码、推理和图像功能。
在 Vertex AI 中试用
在 Model Garden 中查看模型卡片
属性 |
说明 |
badge模型 ID |
llama-4-maverick-17b-128e-instruct-maas |
construction功能 |
|
calendar_month知识截止日期 |
2024 年 8 月 |
123版本 |
llama-4-maverick-17b-128e-instruct-maas
- 发布阶段:正式版
- 发布日期:2025 年 4 月 29 日
|
language支持的区域 |
模型可用性
|
|
ML 处理
|
|
lock配额限制 |
us-east5:
|
sell价格 |
请参阅价格。 |
如未另行说明,那么本页面中的内容已根据知识共享署名 4.0 许可获得了许可,并且代码示例已根据 Apache 2.0 许可获得了许可。有关详情,请参阅 Google 开发者网站政策。Java 是 Oracle 和/或其关联公司的注册商标。
最后更新时间 (UTC):2025-06-23。
[[["易于理解","easyToUnderstand","thumb-up"],["解决了我的问题","solvedMyProblem","thumb-up"],["其他","otherUp","thumb-up"]],[["很难理解","hardToUnderstand","thumb-down"],["信息或示例代码不正确","incorrectInformationOrSampleCode","thumb-down"],["没有我需要的信息/示例","missingTheInformationSamplesINeed","thumb-down"],["翻译问题","translationIssue","thumb-down"],["其他","otherDown","thumb-down"]],["最后更新时间 (UTC):2025-06-23。"],[],[]]