AI知识网,一站式人工智能学习平台 | 从入门到精通的 AI 知识库 AI知识网,一站式人工智能学习平台 | 从入门到精通的 AI 知识库
  • 主页
  • AI动态
  • PHP
  • QQ:420220301
    Wechat:w420220301
QQ:420220301
Wechat:w420220301
  • 主页
  • AI动态
  • PHP
首页 AI动态 谷歌开源 Gemma 家族最轻量模型 Gemma 3 270M:2.7 亿参数可灵活用于 手机平板端侧及 Web 环境

谷歌开源 Gemma 家族最轻量模型 Gemma 3 270M:2.7 亿参数可灵活用于 手机平板端侧及 Web 环境

管理员 2025-08-17 16:43:03

摘要:8 月 17 日消息, 系列家族中最轻量的版本“Gemma 3 270M”,该模型拥有 2.7 亿参数,主要面向端侧部署场景,具备指令遵循和文本结构化能力。1AI获悉,目前 Gemma 3...

8 月 17 日消息, 系列家族中最轻量的版本“Gemma 3 270M”,该模型拥有 2.7 亿参数,主要面向端侧部署场景,具备指令遵循和文本结构化能力。

1AI获悉,目前 Gemma 3 系列模型包括 270M、1B、4B、12B 与 27B 五种规模版本。在 Q4_0 量化格式下,各模型的 RAM 内存需求分别为 240MB、892MB、3.4GB、8.7GB 和 21GB。其中,Gemma 3 270M 以最低 RAM 内存门槛(INT4 量化版本的 RAM 内存需求仅约 240MB),成为系列模型中最适合低功耗设备部署的版本,号称在 Pixel 9 Pro 手机上运行 25 轮对话仅消耗手机 0.75% 的电量。

据谷歌介绍,该模型特别适合处理高频率、任务明确的场景,同时特别适合处理个人隐私信息,例如“情感分析、实体识别、人生规划”等,同时也适用于开发多个专用任务的小型模型。

谷歌同步发布了微调教学资源,涵盖基于 Hugging Face Transformers 进行全模型训练的完整流程,支持开发者在分类、信息抽取、情感分析等任务上进行定制化开发。目前已有第三方开发者通过 transformers.js 将该模型运行在浏览器端,证明 Gemma 3 270M 在 Web 环境中同样具备良好的性能与可控性。


声明:内容来源公开的各类媒体平台,若收录的内容侵犯了您的权益,请联系邮箱,本站将第一时间处理。

上一篇:数据“中毒”AI 还能靠谱吗?央视起底 AI 数据污染乱象
下一篇:我国首个法律垂直大模型发布:整合 2 亿余份裁判文书、420 万余部法律法规
猜你喜欢
  • Skywork AI团队:一个1.5B参数的小模型如何同时掌握图像理解、生成和编辑三项绝技
  • 阿里巴巴推出Visual-CoG:AI绘画终于学会"分步思考"了
  • 让AI炒股变得更聪明:哈佛大学等团队发明的"智能交易员"如何用对话模式赚钱
  • 大型语言模型的"深度诅咒":牛津大学发现训练深层网络的致命缺陷及解决方案
  • Hugging Face团队推出SmolLM2:小而精的语言模型如何在大模型时代找到自己的位置
  • 声音变视频:Captions公司推出能听会说的AI导演Mirage
  • 钉钉发布多款 AI 产品,还有一款硬件
  • Roblox公司让AI实时翻译说话变成可能:语音边听边翻译的突破性技术
  • 全球 500 余台人形机器人共赴「冰丝带」,首届世界人形机器人运动会 8 月 14 日开幕
  • 每日AI必读资讯:AI人工智能领域最新热点资讯汇总(2025年8月7日)
09 09, 2025
2025外滩大会“AI十问世界”引爆全球科技伦理思辨:人机共生时代的责任与边界
Str Tom
站长
Str Tom 网络工作室
423
文章
0
评论
0
获赞
  • 主页
  • AI动态
  • PHP
Powered By AI知识网 © 2025 strtom网络工作室. 公安备案号:冀公网安备13011102001189号 网站备案号:冀ICP备2024070905号-2 网站地图
友情链接: 各类知识收集 PHP接单网 YzmCMS官方网站 YzmCMS交流社区 YzmCMS官方博客