今天,Google 年度开发者 I/O 大会 2024 在加利福尼亚州山景城的 Shoreline Amphitheatre 举行,此次大会以 Alphabet 首席执行官桑达尔·皮查伊 (Sundar Pichai) 的主题演讲拉开序幕。谷歌此前已经明确表示,今年的 I/O 大会将全部围绕人工智能展开。
这次大会上,皮查伊宣布了谷歌内部的最新技术进展,尤其是围绕 Gemini 所做的所有工作。
狂卷长文本,Gemini 家族迎来重大更新
“我们希望每个人都能从 Gemini 所做的事情中受益,”皮查伊说。他还透露了 Gemini 将如何融入谷歌的许多服务中。人们使用 Google 搜索的方式比以往任何时候都多,关键字搜索的时间甚至更长。
大会一开始皮查伊就宣布了 Gemini 系列大模型的更新。首先是 Gemini 1.5 Pro,可提供 100 万长文本能力,并且已经向全球开发者开放。
Gemini 1.5 Pro 是在上个月举办的 Google Cloud Next 2024 大会上发布的,具有原生音频理解、系统指令、JSON 模式等。
Gemini 1.5 Pro 能够使用视频计算机视觉来分析图像(帧)和音频(语音)的视频,这使其具有人类水平的视觉感知。使用深度神经网络,Gemini 1.5 可以以超人的精度识别图像(和视频帧)中的物体、场景和人物。
成本问题一直是大模型开发的痛中之痛,为了解决这一痛点,谷歌 DeepMind 首席执行官 Demis Hassabis 宣布推出 Gemini 1.5 Flash 模型,该模型旨在兼顾快速和成本效益。
“Gemini 1.5 Flash 擅长摘要、聊天应用程序、图像和视频字幕、从长文档和表格中提取数据等,”Google DeepMind 首席执行官 Demis Hassabis 此前在博客文章中写道。 Hassabis 补充说,谷歌创建 Gemini 1.5 Flash 是因为开发人员需要一个比 Gemini 1.5 Pro 更轻、更便宜的模型。
Gemini 1.5 Flash 介于 Gemini 1.5 Pro 和 Gemini 1.5 Nano 之间,是针对开发者的大模型。尽管比 Gemini Pro 轻,但它的功能同样强大,谷歌表示这是通过“蒸馏”的方式来实现的,将 Gemini 1.5 Pro 中最重要的知识和技能转移到较小的模型上。这意味着 Gemini 1.5 Flash 将获得与 Pro 相同的多模式功能,以及其长上下文窗口(AI 模型一次可以摄取的数据量),100 万个 token。
最大的更新尚未到来——谷歌宣布今年晚些时候将模型的现有上下文窗口增加一倍,达到 200 万个 token。这将使其能够同时处理 2 小时的视频、22 小时的音频、超过 60,000 行代码或超过 140 万个单词。
谷歌的 Josh Woodward 详细介绍了 Gemini 1.5 Pro 和 Flash 的定价。Gemini 1.5 Flash 的价格定为每 100 万个 token 35 美分,这比 GPT-4o 的每 100 万个 token 5 美元的价格要便宜得多。
值得一提的是,此次大会谷歌重磅宣布推出基于 Gemini 1.5 Pro 的 Gemini Advanced。升级后的 Gemini Advanced 可以处理“多个大型文档,总计最多 1,500 页,或汇总 100 封电子邮件”。支持 35 多种语言和 150 多个国家/地区。而其“即将”推出的功能是能够“处理一个小时的视频内容或超过 30,000 行的代码库”。全球最强长文本能力可谓实至名归。
该公司还正在开发名为 Project Astra 的通用 AI 代理。大会现场,Demis Hassabis 展示了 Astra 模型,该模型通过智能手机摄像头分析世界,并与用户进行对话。 Demis Hassabis 表示,他的团队“一直希望开发对日常生活有帮助的通用人工智能代理”。 Project Astra 是这方面进展的结果。
Project Astra 类似一款以取景器作为主界面的应用程序。谷歌在演讲中展示了一个人拿着手机,将摄像头对准办公室的各个地方,并用语言与其交互:“当你看到有东西发出声音时,请告诉我。”在这段视频演示中,Gemini 能识别各种物体甚至代码,并实时与人类进行语音互动。
在视频中,Astra 的反应很快。之所以能实现这一目标,是因为这些“Agent”“旨在通过连续编码视频帧、将视频和语音输入组合到事件时间线中,并缓存这些信息以进行有效回忆,从而更快地处理信息。”