Top
首页 > 正文

2023稀土掘金创新论坛在京举办 探讨技术革新的机遇与挑战

发布时间:2023-11-14 17:52        来源:中文资讯网        作者:

10月28日,由稀土掘金社区主办的首届「稀土掘金创新论坛」在北京开幕。本次创新论坛以「AI时代下的管理变革」为主题,线上线下联动,重点关注LLM等新技术以及开源新模式带来的管理挑战,与技术决策者们共探应对之道。

本次创新论坛通过主论坛(上午场,公开直播)及掘金闭门会(下午场,闭门交流)两大环节,不仅可以让参会者提升技术视野,同时也给予了相应参会者深度探讨和交流的机会。

图片1.png

来自AMD公司中国区数据中心业务部产品及市场总监曲大健作为开场嘉宾带来了《卓越算力,引领新一代数据中心和AI技术》分享。在会议上,他首先从AMD的公司使命和愿景出发,详细阐述了产品不断改进和提升算力的重要性。接着,他从“多”、“快”、“好”、“省”四个角度全面介绍了第四代EPYC处理器。他特别强调了第四代EPYC处理器在云计算功能和CPU单核性能上的领先地位。此外,他还从成本的角度出发,指出这次的第四代EPYC处理器相较于以往产品,能够节省每年能源成本、减少占用空间、减少网络端口和线缆的使用,同时还能保持10%的性能提升。

图片2.png

上海人工智能实验室青年科学家陈恺带来了《书生·浦语大模型全链条开源体系》的主题演讲。会上他简单介绍了书生·浦语大模型从6月7日发布至今的开源历程。陈恺强调,目前20B开源大模型的性能已经全面领先相近量级的开源模型,并以不足三分之一的参数量,达到了Llama2-70B的水平,并可免费商用。

同时,陈恺还向开发者们详细介绍了书生·浦语全链条开源开放体系所覆盖的六大环节。首先,在数据环节,上海人工智能实验室开源了多模态语料库书生·万卷,数据总量超过2TB。其次,在预训练环节,开源了InternLM-Train预训练框架,支持了书生·浦语大模型的千卡级高效训练。在微调环节,陈恺介绍了不同微调方法,以及低成本微调框架XTuner。接下来是评测环节,介绍了国内外整体的评测情况以及社区最全面的开源评测体系OpenCompass。在部署环节,陈恺展示了如何将书生·浦语大模型部署到实际应用中,并介绍了大模型推理部署框架LMDeploy的优势。最后是应用环节,介绍了基于大语言模型的智能体应用方案,和轻量灵活的智能体框架Lagent。

图片3.png

智联招聘集团ALG执行副总裁蔡白银带来的演讲主题是《AI 时代的人力资源生态链重塑》。会上他分享了来自北京大学国家发展研究院与智联招聘联合发布的《AI大模型对我国劳动力市场潜在影响研究报告》内容。据研究团队构建的"基于工作任务的大语言模型影响指数"显示,影响指数最高的20个职业主要是白领工作,共同特点是需要处理大量文本和资料整理等知识性任务,而这正是大语言模型人工智能的强项。但同时AI的发展也产生了许多新兴岗位。他强调人工智能的进步重塑了人力资源生态链,帮助了企业组织进行人才升级,并对AI未来为人力资源带来的改变充满期待。

图片4.png

Dify.AI 联合创始人兼产品VP 延君晨,为开发者带来了题为《 LLMs App 技术栈与工作流实践 101 》的主题演讲。他围绕大语言模型落地应用的现状,提出并回答了以下三个问题:

1. 关于应用创新是否有配方,他强调要抓住机遇快速交付价值,没有所谓的平均机会和低垂的果实。

2. 关于工程落地是否有范式,他认为优秀的大模型基础设施可以极大降低落地门槛。

3. 最后关于组织协作问题,他看好提示词工程在R&D领域的发展,并展望未来人与AI能建立互信合作。

图片5.png

BentoML 创始人、CEO 杨超予带来了《OpenLLM: 开源大语言模型的推理与部署实践》的主题演讲。会上他指出,在AIGC飞速发展的时代,可以通过三个方面来判断市面上琳琅满目的开源 LLM的质量:一是它能否满足特定领域的模型需求、二是它是否能保证数据的安全,最后是能否用低成本去获取高收益。除此之外他强调了针对目前大模型落地目前还面临着五个挑战,分别是实操性、拓展性、吞吐量、端对端的延迟以及成本问题。对于这些挑战他总结出一个有价值的openLLM是如何去解决这些问题。

图片6.png

面对AI的革新可能会引发一些担忧和不确定性,主论坛圆桌环节5位嘉宾就时下开发者关心的一些落地场景、商业模式、业务创新等问题,通过不同业务视角,深度探讨了应对之道。

图片7.png

在未来的日子里,稀土掘金技术社区将会始终如一地为企业和技术人员提供一个交流观点、碰撞思想的平台,以实现双向赋能。2023年,稀土掘金将继续坚持以开发者为核心,努力将产业的上下游紧密连接起来,与各行业共同迎接技术发展的新时代。(作者:余致波)

每日必读

专题访谈

合作站点