Google推出AIEdgeGallery,让安卓手机在没有云的情况下运行AI


谷歌悄悄发布了一款实验性 Android 应用程序,使用户能够直接在智能手机上运行复杂的人工智能模型,而无需互联网连接,这标志着该公司在推动边缘计算和以隐私为中心的 AI 部署方面迈出了重要一步。


这款名为 AI Edge Gallery 的应用程序允许用户完全在他们的设备上从流行的 Hugging Face 平台下载和执行 AI 模型,从而实现图像分析、文本生成、编码辅助和多轮对话等任务,同时将所有数据处理保留在本地。


该应用程序在开源 Apache 2.0 许可下发布,可通过 GitHub 而不是官方应用商店获得,它代表了 Google 为实现对高级 AI 功能的访问民主化而做出的最新努力,同时解决了对基于云的人工智能服务日益增长的隐私问题。


“Google AI Edge Gallery 是一款实验性应用程序,它将尖端生成式 AI 模型的强大功能直接交到您手中,完全在您的 Android 设备上运行,”谷歌在该应用程序的用户指南中解释道。“深入了解创意和实用的 AI 用例,所有用例都在本地运行,加载模型后无需互联网连接。”


Google 的 AI Edge Gallery 应用程序显示主界面、Hugging Face 的模型选择以及用于处理加速的配置选项。


Google 的轻量级 AI 模型如何在移动设备上提供云级性能


该应用程序基于 Google 的 LiteRT 平台(以前称为 TensorFlow Lite)和 MediaPipe 框架构建,这些框架专门针对在资源受限的移动设备上运行 AI 模型进行了优化。该系统支持来自多个机器学习框架的模型,包括 JAX、Keras、PyTorch 和 TensorFlow。


该产品的核心是 Google 的 Gemma 3 模型,这是一个紧凑的 529 兆字节语言模型,在移动 GPU 上的预填充推理期间,每秒可以处理多达 2585 个令牌。这种性能使文本生成和图像分析等任务的响应时间达到亚秒级,使体验可与基于云的替代方案相媲美。


该应用程序包括三个核心功能:用于多轮对话的 AI Chat、用于视觉问答的 Ask Image 和用于单轮任务(如文本摘要、代码生成和内容重写)的 Prompt Lab。用户可以在不同模型之间切换以比较性能和功能,实时基准测试显示首次标记的时间和解码速度等指标。


“与 bf16 相比,Int4 量化将模型大小减少了 4 倍,从而减少了内存使用和延迟,”谷歌在技术文档中指出,指的是使大型模型在移动硬件上可行的优化技术。


AI Chat 功能提供详细的响应并显示实时性能指标,包括令牌速度和延迟。


一场可能重塑 AI 未来的悄无声息的革命就在你的口袋里


Google 的 Edge AI Gallery 标志着不仅仅是另一个实验性应用程序版本。该公司已经打响了开场白,这可能是自二十年前云计算出现以来人工智能领域**的转变。虽然科技巨头花费数年时间建造了大规模数据中心来支持 AI 服务,但谷歌现在押注未来属于人们已经拥有的数十亿部智能手机。


此举不**于技术创新。Google 希望从根本上改变用户与其个人数据的关系。隐私泄露事件每周占据头条新闻,世界各地的监管机构都在打击数据收集行为。Google 向本地处理的转变为公司和消费者提供了一个明确的替代方案,以取代多年来一直为互联网提供支持的基于监控的商业模式。


谷歌仔细把握了这一策略的时机。公司与 AI 治理规则作斗争,而消费者对数据隐私越来越警惕。谷歌将自己定位为分布式程度更高的人工智能系统的基础,而不是与苹果紧密集成的硬件或高通的专用芯片正面竞争。该公司构建了可以在所有设备上运行下一波 AI 应用程序的基础设施层。


随着 Google 对技术的改进,该应用程序当前的问题——安装困难、偶尔的错误答案以及不同设备的性能差异——可能会消失。更大的问题是谷歌能否在保持其在 AI 市场的主导地位的同时管理这一转变。


Edge AI Gallery 揭示了 Google 认识到它帮助构建的集中式 AI 模型可能不会持续下去。Google 开源了其工具并广泛提供设备上的 AI,因为它认为控制未来的 AI 基础设施比拥有今天的数据中心更重要。如果该策略奏效,每部智能手机都将成为 Google 分布式 AI 网络的一部分。这种可能性使得这个悄无声息的应用发布比其实验性标签所暗示的要重要得多。


更多AI前沿资讯、工具、实战,关注数字力公开课:


官方网站:www.addloo.com


1742462237298.png

视频号:数字力公开课


数字力公开课-抖音号.png

抖音号:数字力公开课


数字力公开课小程序.jpg

小程序:数字力公开课



分享