AI技术:2024回顾与2025展望
近日,IBM《Mixture of Experts》汇聚了AI模型、智能体、硬件和产品研发四大领域的顶尖专家,共同探讨2024年AI技术的突破性进展,并展望了2025年的发展蓝图。这场深度对话聚焦于高性能AI模型演进、智能体技术革新、AI硬件格局剧变以及年度重磅产品,预示着2025年AI领域的三大关键转折点:开源模型与闭源模型将分庭抗礼,超级智能体时代即将到来,以及英伟达在AI芯片市场的主导地位将面临挑战。
2024年,OpenAI的o1架构、Apple Intelligence进军移动端AI、Meta通过Llama Stack重塑智能体交互标准等事件,都预示着AI格局的深刻变革。那么,这些变化究竟意味着什么?
“战国纪”:巨头竞逐与开源崛起
主持人:2024年伊始,我们还在讨论GPT Store上线和Claude 2.1的长文本处理能力,而现在Llama 3的发布已成焦点。2024年无疑是变革之年,我们邀请专家们分享AI模型、智能体、硬件和产品领域的亮点与挑战,并展望2025年的趋势。
IBM高级研究科学家 Marina Danilevski 和 IBM AI咨询业务高级合伙人 Shobhit Varshney 分析了AI模型领域的发展。
Shobhit Varshney:OpenAI o1的发布标志着模型开发和扩展方式的重大转变。模型开始注重推理,放慢速度思考用户需求,并利用工具。成本结构也在发生变化,专用模型成本下降,小型模型性能提升。重心从大型模型转向高质量的企业数据和定制数据。指导模型能够创建合成数据,训练更小的模型,实现高性能。2025年的AI发展将截然不同。
Marina Danilevsky:我们到达了一个重要的节点,开始思考“既然模型能做到很大,现在如何做得更小”。在“规模至上”的初始研究后,我们开始关注效率。2025年,模型质量将达到新高度,企业级解决方案将更加可靠。
主持人:2024年的竞争非常激烈,各家公司都在积极地推动技术进步。大约15%的客户已经通过生成式AI获得实际价值,AI与企业数据结合的趋势日益明显。OpenAI、谷歌和Meta的竞争引发了巨大变革,我们开始思考如何更好地控制模型,使其适应企业工作流程和数据集,并更好地利用工具进行推理。
Shobhit Varshney:Gemini Flash的小型多模态模型将推动未来两三年计算领域的发展,开启了多模态计算的更多可能性。模型具备记忆能力,这能增强我们日常工作流程,计算能力向设备端转移,带来更好的隐私保护。
Marina Danilevsky:小模型的发展令人振奋,未来监管将更加完善,小型本地化解决方案将至关重要。Llama 模型系列展示了预训练和后训练的潜力。大型研究实验室将继续构建更大的模型,但可能不会公开发布,而是用于创建合成数据和蒸馏。
Shobhit Varshney:未来模型将更多地成为合作伙伴,而不是简单地模仿人类。多模态模型将更好地理解人类的信息,直接从一种媒体形式转换到另一种形式。我对多模态、小型化和完整上下文处理的发展充满期待。
“元年志”:超级智能体的崛起
主持人:接下来讨论智能体(Agent)技术,邀请了 IBM杰出工程师 Chris Hay 和 IBM AI孵化项目产品经理 Maya Murad。
Chris Hay:智能体被低估了,它是未来的核心。2025年将是超级智能体的时代。
Maya Murad:2024年我们听到了很多关于智能体的讨论,我期待更多实际案例,也预计会遇到更多挑战。更多的协议和标准化努力,比如Meta的Llama Stack和Anthropic的模型上下文协议(MCP),将定义大模型与外部世界交互的方式。
主持人:2024年更像是在为未来做准备。Meta的早期投入和对通信协议的定义,暗示了未来AI智能体领域将发生重大变化。
Chris Hay:Anthropic的MCP将成为明年智能体发展的最大推动力之一,允许远程调用工具。这使智能体可以访问企业工具,并以标准化方式开放API,将推动生态系统发展。超级智能体将在2025年成为一个庞大的生态系统。翻译将是一个重要的应用场景,需要专门针对特定语言训练的专业模型。我还预测万维网将发生重大转变,出现为智能体优化的标记数据新方式,即Web 4.0。
Maya Murad:不同提供商构建的智能体之间的相互交互将开启新的应用场景,通用交互协议将是重要的发展方向。软件工程领域已经投入很多,但简化普通商业用户的需求仍有很大空间。未来的操作系统可能就是代表用户执行任务的智能体。
Chris Hay:现在的编程语言是为人类设计的,未来可能会出现更适合智能体的原生语言,减少为满足人类需求而设置的语法糖。AI编程语言和库将使一切更加原生化。
Maya Murad:AI编程助手正在以前所未有的方式普及创建数字界面和代码库的能力。
“封神榜”:芯片新秩序
主持人:接下来,IBM硬件专家 Khaoutar El Maghraoui 和 Volkmar Uhlig 讨论AI硬件的未来。
Volkmar Uhlig:英伟达的GB200表明训练系统正在朝着更集成方向发展。内存容量增加,新的市场参与者如AMD、英特尔、Cerebras和Groq等正在涌现。英伟达不再是唯一的主导者,这对行业来说是件好事。推理的关注度在增加,因为它才是真正能创造收益的领域。
Khaoutar El Maghraoui:推理引擎和优化推理引擎方面有很多进展。硬件软件协同设计发挥关键作用,开源领域围绕构建和扩展推理系统有很多创新。
Volkmar Uhlig:在训练领域,英伟达仍将保持主导地位。构建成功的训练系统需要的不仅仅是GPU,还需要优秀的低延迟网络和可靠性。英伟达收购Mellanox使其在高性能计算领域具有显著优势。其他参与者主要集中在推理市场,因为推理更容易进入,并不需要英伟达的系统。到2026年,市场格局可能会发生重大变化。
Khaoutar El Maghraoui:英伟达GPU面临成本和功耗效率的挑战。像AWS Inferentia、Google TPU、Graphcore IPU等竞争对手提供了更便宜、更节能的硬件。开放标准和新框架也在减少对英伟达专有生态系统的依赖。边缘推理解决方案的广泛涌现正在挑战英伟达在这个快速增长市场中的地位。
Volkmar Uhlig:苹果的模式是一种优雅实用的解决方案,在功耗受限的环境中直接处理任务。我们将会看到更多混合计算模式,芯片越来越专门化,几乎每一个出厂的芯片都将包含AI功能。设备内部和设备外部处理的混合架构将使硬件长期保持竞争力。
Khaoutar El Maghraoui:实时计算优化被低估了,比如测试期计算,允许AI模型在推理过程中动态分配额外计算资源。硬件的普及化正在缩小高端数据中心和消费级应用之间的差距。开源和企业协同效应正在为进一步突破奠定基础。2024年展示了硬件、软件协同设计的重要性,以及行业向专用AI加速器的转变。
“新生代”:AI产品爆发
主持人:最后,IBM Granite技术产品管理总监 Kate Soule 和 IBM研究员 Kush Varshney 讨论AI产品发布。
Kate Soule:IBM发布了Granite 3.0模型系列,具有高度透明性和伦理数据来源。GPT 4.0 系列模型的发布开启了新浪潮,让我们开始思考如何在推理阶段投入更多资源,提升性能。
Kush Varshney:“开源的回归”是2024年的重要特征。客户意识到实际落地时需要考虑版权数据、治理和成本。IBM的Watson X和Granite模型在这方面发挥了重要作用。2024年是将2023年的科学实验转化为实际应用的一年。
主持人:AI安全领域的大规模集会表明治理已成为核心议题。只有克服治理门槛,投资回报才能真正实现。
Kush Varshney:Agentic AI会真正爆发,治理将成为推动其他用例发展的关键因素。我们将看到更多用于管理智能体的工具,比如 Granite Guardian 3.1 的函数调用幻觉检测器。自我反思能力将成为系统运作的重要组成部分,但也会带来更大的攻击面。
Kate Soule:开源正在打破大型模型提供商垄断安全研究和专业知识的说法。Meta发布了安全对齐的大型模型,展示了公开做这件事的可能性。
主持人:2025年可能终于是开源与闭源平分秋色的一年,因为我们确保开源模型部署安全的能力也在提高。
Kate Soule:明年的重点将更多地放在模型之上的技术栈上,以及优化模型和开发者框架的协同效应上。开源创新将出现在技术栈的更上层,特别是来自那些寻求进一步提高性能的模型提供商。
Kush Varshney:共同创造力、共同创作将成为更大的趋势。未来可能更关注人类的繁荣和幸福感,探索如何让人们一起工作。
Kate Soule:在使用LLM构建模块化组件方面将有巨大机会。我希望能够创建通用的LoRa适配器,实现模块化组件的实时配置。模型架构也应该有可以互相替换的模块化专家模块。
Kush Varshney:智能体的中间件也是一个重要方面。即使在多智能体系统中,我们也需要考虑如何注册和编排它们。在开发环境和模型之间建立更紧密的联系也非常重要。一旦所有模型都达到足够好的程度,如何更好地使用和开发它们将是未来重点。