AI知识网,一站式人工智能学习平台 | 从入门到精通的 AI 知识库 AI知识网,一站式人工智能学习平台 | 从入门到精通的 AI 知识库
  • 主页
  • AI动态
  • PHP
  • QQ:420220301
    Wechat:w420220301
QQ:420220301
Wechat:w420220301
  • 主页
  • AI动态
  • PHP
首页 AI动态 谷歌开源 Gemma 家族最轻量模型 Gemma 3 270M:2.7 亿参数可灵活用于 手机平板端侧及 Web 环境

谷歌开源 Gemma 家族最轻量模型 Gemma 3 270M:2.7 亿参数可灵活用于 手机平板端侧及 Web 环境

管理员 2025-08-17 16:43:03

摘要:8 月 17 日消息, 系列家族中最轻量的版本“Gemma 3 270M”,该模型拥有 2.7 亿参数,主要面向端侧部署场景,具备指令遵循和文本结构化能力。1AI获悉,目前 Gemma 3...

8 月 17 日消息, 系列家族中最轻量的版本“Gemma 3 270M”,该模型拥有 2.7 亿参数,主要面向端侧部署场景,具备指令遵循和文本结构化能力。

1AI获悉,目前 Gemma 3 系列模型包括 270M、1B、4B、12B 与 27B 五种规模版本。在 Q4_0 量化格式下,各模型的 RAM 内存需求分别为 240MB、892MB、3.4GB、8.7GB 和 21GB。其中,Gemma 3 270M 以最低 RAM 内存门槛(INT4 量化版本的 RAM 内存需求仅约 240MB),成为系列模型中最适合低功耗设备部署的版本,号称在 Pixel 9 Pro 手机上运行 25 轮对话仅消耗手机 0.75% 的电量。

据谷歌介绍,该模型特别适合处理高频率、任务明确的场景,同时特别适合处理个人隐私信息,例如“情感分析、实体识别、人生规划”等,同时也适用于开发多个专用任务的小型模型。

谷歌同步发布了微调教学资源,涵盖基于 Hugging Face Transformers 进行全模型训练的完整流程,支持开发者在分类、信息抽取、情感分析等任务上进行定制化开发。目前已有第三方开发者通过 transformers.js 将该模型运行在浏览器端,证明 Gemma 3 270M 在 Web 环境中同样具备良好的性能与可控性。


声明:内容来源公开的各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。

上一篇:数据“中毒”AI 还能靠谱吗?央视起底 AI 数据污染乱象
下一篇:我国首个法律垂直大模型发布:整合 2 亿余份裁判文书、420 万余部法律法规
猜你喜欢
  • 让大模型下棋:人工智能在外交游戏中的惊人表现——Good Start Labs与独立研究者的突破性发现
  • Meta 公司再次重组 AI 团队,成立超级智能实验室
  • 4比0横扫Grok 4,o3强势夺冠,首届大模型对抗赛结果出炉
  • 塔尔图大学最新突破:让普通显微镜像"火眼金睛"一样精准识别细胞
  • 编程大模型也能瘦身成功:上海交通大学团队让AI推理快43.5%的秘密武器
  • 马斯克炮轰 OpenAI 和微软关系,纳德拉回帖称期待 Grok 5 到来
  • 机构:DeepSeek 过去一年的流量份额显著波动
  • 上海AI实验室让AI学会玩转全新软件,不再需要人类手把手教学
  • 大型多模态AI能否主动识别错误信息?吉林大学团队首创评估框架揭示惊人真相
  • 阿里云团队突破客服新纪元:让AI也能像金牌客服一样温暖贴心地解决问题
19 08, 2025
新加坡南洋理工大学重新定义3D重建:像智能手机看视频一样理解三维世界
Str Tom
站长
Str Tom 网络工作室
254
文章
0
评论
0
获赞
  • 主页
  • AI动态
  • PHP
Powered By AI知识网 © 2025 strtom网络工作室. 公安备案号:冀公网安备13011102001189号 网站备案号:冀ICP备2024070905号-2 网站地图
友情链接: 各类知识收集 PHP接单网 YzmCMS官方网站 YzmCMS交流社区 YzmCMS官方博客