扫码分享到微信
人工智能将如何重塑全球经济?一些经济学家预测,其影响仅限于小幅增长,未来十年内GDP增幅可能不到0.9%。而另一些人则认为,人工智能将引发一场革命,每年可能为全球经济增加17万至26万亿美元的产出,并自动化多达一半的现有工作岗位,到2045年实现这一目标。即便在这些全面影响尚未显现之前,人们对人工智能未来的看法已经开始影响当前的经济活动,引导年轻人的职业选择,影响政府政策,并推动大量投资流入半导体和其他数据中心组件。
为何现在就需要评估人工智能的影响
鉴于潜在的巨大影响,许多研究人员和政策制定者正试图通过自然实验和随机对照试验来精确量化人工智能的影响。在这些研究中,一组人获得人工智能工具的访问权限,而另一组则保持正常状态,其他因素保持不变。研究人员可以分析生产力、满意度和学习成果等结果。
然而,当应用于人工智能时,这种类型的证据面临两个挑战。首先,当这些研究结果发表时,人工智能的影响估计可能已经过时。例如,一项研究发现,使用2020年的人工智能工具,呼叫中心员工处理查询的速度提高了15%。另一项研究显示,2022-2023年使用编码助手的软件开发人员完成了26%更多的任务。但人工智能的能力正在以惊人的速度发展。例如,自2022年ChatGPT发布以来,人工智能工具现在可以独立处理的模拟客户服务对话数量是之前的三倍。更好的、更便宜的人工智能将产生不同的经济影响。
其次,精心控制的研究无法捕捉到人工智能采用带来的更广泛影响。例如,涉及呼叫中心员工和软件开发人员的研究发现,当组织结构保持不变时,经验较少的员工最受益于人工智能的帮助。但在现实世界中,管理者可能会重新组织工作,甚至用人工智能系统取代一些经验较少的员工。如果他们这样做,对个人的影响可能与控制研究中的估计相反。事实上,工资数据表明,自2022年以来,年轻工人的就业率有所下降,特别是在人工智能擅长的任务,如客户服务和软件开发的领域。然而,研究人员仍在努力理解这种模式中有多少是由于人工智能技术。
精心控制的研究就像用窄光束照亮:它们只是理解社会如何适应人工智能所需照明的一部分。由于对人工智能的广泛经济和社会影响仍有许多未知,公众辩论往往滑入了关于机器智能主导世界的科幻叙事。
社会科学可以帮助应对这些不确定性,但需要想象力和现实基础。这里描述了三种互补的方法,可以指导这个快速发展的领域中的研究人员。
社会科学小说
一种方法是创造经济学家让·蒂罗尔所说的“社会科学小说”——基于基本经济原理和行为理论的对未来进行推测。这种分析不是仅凭想象,而是使用模型来探索技术如何与市场力量相互作用。
例如,2019年的一项研究模拟了自动驾驶汽车如何重塑城市,发现这些车辆可能会使交通变得更糟。因为自动驾驶汽车中的乘客可以放松、阅读或观看视频,交通时间的个人成本降低。但随着更多人选择开车,他们会给他人带来更大的交通拥堵。这是否会导致低效率取决于政府是否实施拥堵收费等政策来纠正“外部性”。
人工智能能否帮助消除贫困?
另一种有想象力但基于现实的研究是关于市场力量如何限制人工智能的破坏性潜力。研究表明,随着自动化提高某些任务的生产力,其他难以自动化的活动(如创意指导或最终输出的审查)将相对增加价值。这可能会提高这些职位的需求和工资。这些机会可以缓解自动化带来的破坏性影响。但也可能加深那些在这些角色中表现优异的人与其他人之间的不平等。
前瞻性数据
除了理论,政策制定者还需要证据来理解经济将如何变化。不同类型的信息需要结合以形成更完整的图景。
一种常见的评估人工智能能力的方法是基准测试——在标准化任务上测试系统,就像考试一样。基准可以评估人工智能系统解决数学问题、回应客户服务请求或诊断医疗状况的能力。然而,基准得分往往与实际环境中的表现不同,因为任务更嘈杂、更复杂且依赖于上下文。例如,一个医疗人工智能系统可能在教科书风格的临床问题上表现良好,但如果患者省略了关键细节,它可能会误解沟通。需要更多研究来设计更好的基准,以捕捉实际表现。
如果人工智能像许多人预期的那样具有变革性,其影响将体现在许多可以实时监控的指标中,例如跟踪人们使用人工智能的任务。这些使用数据表明,人工智能聊天机器人经常用于软件开发,这表明该行业可能最早感受到人工智能采用的影响。其他指标包括就业、职位空缺以及整合人工智能的企业是否获得更高的利润并扩大规模。然而,描述性指标无法回答的问题仍然存在。因此,研究人员可能仍需尝试测量人工智能的因果影响:即人工智能是否导致了改进,而不仅仅是被高绩效者采用,而这些高绩效者也恰好更愿意尝试新技术。
人工智能可能加剧不平等——除非公众学会控制它
估计人工智能的因果影响是困难的,因为技术在不断发展,组织也在适应。但这一挑战并非仅限于人工智能。评估任何试点项目(无论是商业、教育还是公共卫生)在扩大规模后将如何表现时,也会遇到类似问题。当项目扩大规模时,往往会遇到新的限制或引发更广泛的经济后果。经济学家已经开发出方法,在设计实验时预测这些扩展效果,例如复制最终实施者的条件——例如,政府机构——而不是通常运行试点的灵活且资源充足的组织13-15。研究人工智能的人员也可以在设计实验时尝试预测未来的变化。
一个重要的参数是运行人工智能模型的成本,该成本一直在下降。研究人员可以建模成本下降如何影响不同应用的可行性。例如,一项研究16探讨了塞拉利昂教师支付互联网接入费用的情况,按兆字节计费。2022年初,查询人工智能聊天机器人比加载标准网页贵12倍;到2025年,由于计算成本下降和人工智能的带宽效率,使用该技术的成本比访问网页便宜98%。这种成本优势表明,人工智能可能在互联网昂贵的低资源环境中扩大信息访问。
人工智能的能力是其影响的另一个关键决定因素。很难预测这些能力如何演变,但研究人员可以尝试预测人类如何应对更强大的系统。即使技术进步,人类行为往往遵循稳定模式——在信任发展、对激励的响应以及适应自动化方面。(来源:《自然》杂志 https://www.nature.com/articles/d41586-025-04053-w)
台湾省预算会议或跨国企业董事会中,生成式AI系统已生成现金流预测、总结200页政策报告,并提出价格调整或福利变更建议。这些内容看起来文笔流畅、图表清晰,但其中可能隐藏着错误的计算,导致决策方向偏离。Omni Calculator团队的ORCA基准测试显示,顶级模型在实际计算任务中的得分不超过63%,且生成式AI在政府工作流程和企业系统中的应用日益增多,这使得错误解读其优势和劣势的成本不断上升。
ORCA基准测试表明,生成式AI在金融、健康和物理等领域的日常定量任务中,大约有60%的答案是错误的,通常是因为基本的算术错误或四舍五入错误,而非复杂的逻辑错误。这在预算、采购和福利计算中尤其危险,一个错误的费率或折扣可能会影响数百万美元的流向。当AI增强的门户计算错误的付款计划或低估了公用事业账单时,居民和客户通常不会指责模型,而是指责机构。机构若未对团队进行培训,将面临信任逐渐流失的风险。
哈佛研究人员将这一挑战称为“AI的技术前沿”。一项针对758名顾问的实地实验发现,GPT-4在某些知识任务上显著提高了速度和质量,但在任务复杂度超出该范围时,表现急剧下降。研究显示,AI在某些工作领域表现出色,但在其他领域则表现不可预测,普通用户难以预见。政府已经在这一技术前沿中运作。联邦机构的生成式AI应用案例从2023年的几十个增加到2024年的几百个,涵盖了从记录总结到生成信函和分析技术材料等各个方面。缺乏明确培训的公务员可能会假设一个像专家一样写作的系统也像专家一样计算。
生成式AI需要经过训练的用户,而非盲目的信任。一旦看到人们对其流畅性的反应,这一点就变得显而易见。美国国家标准与技术研究院在其生成式AI风险评估中警告,这些系统可以“编造”内容,看似合理而精确,但实际上嵌入了错误,包括错误的逻辑和伪造的引用。同样的模式也出现在定量工作中:一个模型可以提供详细的多步贷款计算或折现现金流估算,即使算术有误。如果预算官员、政策分析师或CFO没有经过训练来质疑和检查这些数字,流畅的解释实际上会增加错误的风险。
正确的应对方式不是放弃生成式AI,而是将其与确定性工具、人工监督和严肃培训相结合。ORCA团队强调,AI的核心设计使其在日常数学计算中仍不可靠,建议用户将AI计算的数字视为草稿,而非最终答案。这一指导与技术前沿的理念相契合:使用生成式AI来解释问题和描述场景,而不是替代计算器。
监管机构和标准机构已经开始将这一理念编码进去。美国国家标准与技术研究院的AI风险管理资源和专门的生成式AI概要强调了过度依赖、自动化偏见和不透明失败模式等配置风险。联邦指导要求机构列出AI应用案例,管理风险并报告保障措施,而独立分析师强调,合规必然包括培训员工了解AI的强项和弱项。在州一级,如华盛顿州和科罗拉多州的指导方针强调了同样的原则:积极实验,但要围绕教育、政策和关键决策的明确边界进行。
企业和购买生成式AI工具的企业也面临类似的义务。开发者可以设计系统,使模型解释用户的问题、提取输入并选择公式,然后将计算交给沙盒脚本或专门引擎。这种架构,由ORCA作者和许多应用研究人员倡导,保持了算术的可靠性,同时让AI在语言和工作流程中发光。
为了实际操作,前线员工需要接受如何将各个部分结合在一起、何时将结果提交审查以及为何优雅的叙述不能代替计算器的培训。哈佛的研究表明,人们在采用有意识的策略来划分自己和AI之间的工作时表现最佳,而不是假设工具在所有地方都同样有效。
对于政府机构和企业而言,核心教训是简单而共享的。生成式AI既强大又不均衡。它能改变起草、研究和创意,但在预算线上的百分比序列计算中仍可能出错。通过投资培训、教导团队AI在流程中的位置,并坚持关键计算通过确定性检查,领导者可以充分利用生成式AI而不陷入其盲点。
随着AI嵌入从城市服务门户到企业资金管理仪表板的一切,理解何时信任模型、何时使用计算器和训练有素的人才是获胜的关键。(来源:国会山报 https://thehill.com/opinion/technology/5649753-ai-jagged-technological-frontier/)
中国的AI视频市场正在迅速升温,各大企业纷纷推出生成工具,旨在生成高质量、逼真的视频片段,这得益于AI在视频创作领域的广泛应用。北京的升数科技成为中国大陆首家推出OpenAI Sora视频生成工具竞争对手的企业,于周二发布了其AI代理Vidu Agent,称其为“一键式专业视频创作工具”,能够在几分钟内将图片转化为高质量、富有表现力的视频。
AI代理是一种软件程序,利用AI模型的优势,自主执行各种任务。升数科技的Vidu Agent将视频制作过程中的多个步骤整合到一个工作流中,包括创意规划、视频和配音生成等,这使得内容创作者、公司和营销人员能够轻松制作各种内容,如电视广告和音乐视频,并在流媒体和短视频平台上部署。
升数科技CEO罗一航表示,AI视频市场已从比拼生成高质量视频转向提供更简洁的生产流程。他指出,Vidu Agent“自动化了从视觉输入到完成视频的步骤,帮助用户以更少的努力生成结构化、精致的内容”。升数科技致力于使视频创作更加直观、高效和易于使用,适用于创意和商业用途。(来源:南华早报 https://www.scmp.com/tech/tech-trends/article/3336628/rapid-advances-chinas-ai-video-space-lead-widespread-tech-adoption?module=top_story&pgtype=homepage)
Meta正致力于打造“AI优先”的工作环境,扩大员工使用竞争对手如谷歌和OpenAI工具的权限。据Business Insider了解,该公司鼓励员工将AI工具融入日常工作的各个方面。
Meta首席信息官Atish Banerjea在6月的一份内部备忘录中表示,公司的首要任务是“让AI成为我们工作的核心”。备忘录中提到,Meta将使用自家的“Llama”系列模型,同时与来自其他公司的产品结合使用。
在11月,一位Meta工程师在内部帖子中提到,员工可以访问Google的Gemini 3 Pro和OpenAI的ChatGPT-5。Meta员工可使用的AI工具有:Agentic Auto(高级代理)、Advanced Auto(处理复杂任务的实验性代理)、Agentic Auto with GPT-5 Thinking(思考更长时间以获得更好答案的代理)、iLlama(快速的Llama 3.1模型)、Llama 4 Maverick(无Meta内部内容的Llama 4 Maverick模型)、GPT-4.1(无Meta内部上下文的高级语言模型)和Gemini 3 Pro(无Meta内部内容的高级语言模型)。
Meta还开放了内部编码工具Devmate,使用Anthropic的Claude。此外,Meta还将其内部生产力套件迁移到了Google Workspace,包括Chat、Gmail、Docs和Drive,以解锁AI驱动的能力并更好地整合到其工具集中。
为了促进AI的采用和实验,Meta还通过游戏化的方式激励员工使用AI。今年早些时候,Meta推出了一款名为“Level Up”的内部游戏,奖励员工使用AI的不同方式。公司还计划将AI驱动的影响纳入2026年的绩效评估。
Meta通过开放竞争对手的AI工具,不仅提高了员工的工作效率,还促进了其内部AI生态系统的多样化和创新。(来源:商业内幕 https://www.businessinsider.com/meta-ai-tools-internal-google-gemini-openai-chatgpt-llama-claude-2025-12)
而45%的员工表示他们每年使用AI几次当时只有12%的员工表示他们每周多次使用AI避免为人工智能而人工智能咨…
2025-12-16 11:06AI编程工具的特性使其成为新的攻击目标最有可能的是人工智能翻译——能够理解人工智能语言并指导智能机器…
2025-12-18 10:49京ICP证000080(一)-16
京公网安备11010802009845号