首页> AI全球眼>  正文
12月30日AI全球眼:软银加速布局AI;2025年关于AI的三种常见误解;过度依赖AI会损害自信心
来源:赛迪网     作者:赛迪网 2025-12-30 13:35:16
微信分享二维码

扫码分享到微信

关闭

世界未准备好应对人工智能紧急情况

随着AI技术的发展,一场由AI引发的危机可能迅速跨越国界,导致互联网中断、支付失败、急救车辆误入以及其他不可靠的信息。这种危机可能是由于模型故障、犯罪行为或网络攻击引发的。在许多情况下,AI紧急情况的最初迹象可能只是普通的断电或安全故障,直到后来才会发现AI系统发挥了重要作用。

为应对这种紧急情况,一些政府和公司已经开始建立风险管理措施。欧盟AI法案、美国国家标准与技术研究院的风险框架、G7广岛进程以及国际技术标准都旨在防止AI带来的危害。网络安全机构和基础设施运营商也有应对黑客攻击、断电和常规系统故障的预案。然而,缺乏的是在AI中心位置的快速危机中,防止社会恐慌和信任、外交和基本沟通破裂的计划。

应对AI紧急情况不仅是预防工作的一半,另一半是准备和响应。谁来决定AI事件是否构成国际紧急情况?谁来向公众传达虚假信息泛滥时的信息?如果正常沟通渠道被破坏,政府之间如何保持沟通渠道畅通?

政府必须在为时未晚之前制定AI紧急响应计划。通过灾难法和全球其他紧急情况的经验,可以发现现有国际规则已经包含了AI预案的组成部分。政府已经拥有法律工具,但需要商定何时以及如何使用这些工具。我们不需要新的复杂机构来监督AI,只需政府提前做好规划。

如何准备AI紧急情况

我们已经看到了治理模式的一般模型。国际卫生条例允许世界卫生组织宣布全球卫生紧急情况并协调行动。核事故条约要求在辐射可能跨境传播时迅速通报。电信协议清除法律障碍,以便紧急卫星设备可以迅速启用。网络犯罪公约建立了24/7联络点,以便警察可以在短时间内合作。这些经验表明,预先约定的触发器、指定的协调员和快速通信渠道可以在紧急情况下节省时间。

AI紧急情况也需要同样的基础。首先,需要一个共享的定义。AI紧急情况应是由AI的发展、使用或故障引发的、可能导致严重跨境危害且超出任何单一国家应对能力的非常事件。至关重要的是,它还应涵盖AI参与仅被怀疑或只是多种可能原因之一的情况,以便政府在法医确定之前采取行动。大多数事件都不会达到这种水平。提前同意定义有助于避免在最初几个小时的瘫痪。

接下来,政府需要一个实用的预案。预案的第一部分应定义一组共同的触发器和基本严重性等级,以便官员知道何时从常规事件升级为国际警报,包括确定AI参与仅是可信的怀疑而非确凿证明的标准。第二部分应包括指定一个可以迅速召集的技术专家、执法伙伴和灾害专家的全球协调员。第三部分应建立互操作的事件报告系统,以便国家和公司在几分钟内而不是几天内交换关键信息。接下来,必须创建危机通信协议,使用经过认证的模拟方法,如无线电。最后,必须列出清晰的连续性和遏制措施清单。这些措施可能包括减缓高风险AI服务或切换关键基础设施为手动控制。

结构化AI紧急准备

谁应监督这些AI紧急准备倡议?我的答案是联合国。

将此系统置于联合国结构中有几个原因。首先,AI紧急情况不会尊重联盟。联合国机制提供更广泛的包容性,减少竞争联盟之间的重复工作。它为没有先进AI能力的国家提供技术支持,使负担不只由少数大国承担。它增加了合法性和约束力。特别当这些权力涉及数十亿人使用的数字网络时,必须是合法、适度和可审查的。

这一国际层面需要与各国现在可以采取的国内步骤相匹配。每个国家都应指定一个24/7的AI紧急联系点。紧急权力应接受审查,以确定是否涵盖AI基础设施。部门计划应与基本事件管理和业务连续性标准对齐。联合演习应练习信息浪潮、模型故障和跨部门断电。在敌对攻击迫使更新之前,应优先迁移到后量子密码学。政府还应注册可信的发送者和警报模板,以便在系统不稳定时信息仍能到达公民。

这些预防措施现在就必不可少。据报道,与AI相关的网络攻击正在增加,许多国家已经经历了较小规模的断电、数据操纵尝试和信息泛滥,这些都预示着更大事件的可能。更重要的是,快速发展的AI故障可能与今天的高度互联基础设施结合,产生一个单个国家无法独自应对的危机。

这并不是呼吁建立一个新的全球超级机构。而是呼吁将现有的一切整合成一个连贯的响应。我们需要一个AI紧急预案,借用这些工具并进行排练。

AI治理的衡量标准是我们在最糟糕的日子里如何应对。目前,世界还没有AI紧急情况的计划,但我们可以通过建立、测试并用法律和保障措施将其绑定,来创建一个计划。我们必须现在就建立它,测试它,并将其与法律绑定,因为一旦下一次危机开始,就已经为时已晚。

(来源:美国《时代》杂志  https://time.com/7342444/not-prepared-for-ai-emergency/)

软银以40亿美元收购DigitalBridge以加速其AI雄心

软银宣布将以约40亿美元的价格收购数字基础设施投资者DigitalBridge。软银集团董事长兼CEO孙正义表示,随着人工智能在全球范围内的转型,需要更多的计算能力、连接性、电力和可扩展的基础设施。

这笔交易凸显了软银在全球范围内加强对AI物理基础设施控制的推动力,随着计算资源竞争的加剧,这一趋势愈发明显。DigitalBridge将继续作为独立管理的平台运营,由CEO马尔·甘兹领导。

该交易预计将在2026年下半年完成,取决于监管审批。与此同时,软银正在重新调整其在人工智能领域的投资策略。11月,软银披露已出售了价值近60亿美元的英伟达股票。软银首席财务官宫城义光表示,出售英伟达股票的决定“与英伟达本身无关”,而是为了将资金重新分配给OpenAI。宫城义光还表示,软银计划在年底前完成对OpenAI的30亿美元投资的最后一部分。

DigitalBridge的收购也与软银日益重视所谓的“物理AI”战略相吻合,软银正在加大在数据中心、机器人等实际基础设施方面的投资,以将AI融入日常生活。

(来源:商业内幕  https://www.businessinsider.com/softbank-acquires-digitalbridge-4-billion-in-ai-infrastructure-push-2025-12)

智库首席执行官表示:过度依赖人工智能可能会悄然损害你的自信心,甚至影响你的职业前景

人工智能似乎在表面上让工人变得更高效、更具有生产力。然而,国际数据中心权威机构(International Data Center Authority)的CEO梅赫迪·帕拉维(Mehdi Paryavi)认为,过度且设计不当的AI使用正在悄悄侵蚀工人的自信心,并导致“技能下降”。

帕拉维在接受商业内幕(Business Insider)采访时指出,当每个人都依赖单一的AI“盒子”来获取所有创意、分析和创新时,“跳出思维定势”的概念将不复存在。他认为,最直接的受害者是自信心。如果工人开始相信AI比自己写得更好、思考得更聪明,他们将失去自我信心。

帕拉维表示,随着工人逐渐将写作、分析和判断权交给AI系统,他们对多年积累的技能依赖越来越少。突然间,他们意识到没有AI工具的帮助自己不够好,每天都在更多地依赖AI。研究也反映了这一趋势。一项由Work AI研究所与包括 Notre Dame、哈佛和UC Santa Barbara等大学的研究人员共同完成的新报告发现,AI让普通办公室工人感觉自己更聪明、更高效,但其背后的基础技能却在慢慢衰退。

Work AI研究所负责人雷贝卡·亨德斯(Rebecca Hinds)指出,AI创造了一种专业知识的错觉,这对仍需建立基础的早期职业生涯员工尤其危险。帕拉维认为,速度并不等同于生产力。AI最大的承诺是速度——更快的报告、更快的启动、更快的分析。但更快并不总是意味着更好。虽然AI可以生成专业听起来的输出,但它往往缺乏多年实践经验带来的深度。

帕拉维建议,公司应根据岗位功能定制AI访问权限,而不是普遍推广。在工作流程的两端,人类的参与都很重要——在开始时引领创造性思考,在结束时检查AI输出的质量。他强调,关键在于人类必须检查AI,而不是相反。AI可能不会直接消除工作,但如果缺乏刻意的限制,它可能会悄悄侵蚀职业生涯所依赖的信心和思考技能。

帕拉维问道:“我们真正需要多少技术?我们愿意推到什么程度的极限?多少才是足够的?”

(来源:商业内幕  https://www.businessinsider.com/ai-impacts-confidence-job-skills-career-think-tank-ceo-says-2025-12)

2025年关于AI的三种常见误解

2025年,人们对人工智能(AI)的发展存在许多误解,尤其是在技术快速进步和广泛应用的过程中。以下是三个需要在新的一年中摒弃的常见误解。

AI模型面临瓶颈 当GPT-5于5月发布时,人们再次质疑AI是否遇到了瓶颈。尽管命名有所升级,但改进似乎只是渐进式的。《纽约客》杂志发表了一篇文章,题为“如果AI不再变得更好呢?”文章指出,GPT-5“表明大型语言模型的进步可能已经停滞”。然而,几个月后,OpenAI、谷歌和Anthropic相继发布了在经济上有价值的任务上取得显著进展的模型。谷歌DeepMind团队负责人Oriol Vinyals在Gemini 3发布后写道:“性能的提升是前所未有的,没有遇到瓶颈。”这表明AI模型仍在不断进步。

自动驾驶汽车比人类司机更危险 当聊天机器人的AI出错时,通常只是因为编程错误或计数错误。但当自动驾驶汽车的AI出错时,可能会导致人员伤亡。因此,许多人对这项新技术持谨慎态度。在英国,一项针对2000名成年人的调查显示,只有22%的人愿意乘坐无人驾驶汽车。在美国,这一比例仅为13%。10月,Waymo在旧金山的一次事故中撞死了一只猫,引发了公众的愤怒。然而,根据Waymo的数据,自动驾驶汽车在1亿英里的行驶中,涉及受伤事故的次数仅为人类司机的五分之一,涉及严重受伤或更严重事故的次数仅为人类司机的十一分之一。

AI无法创造新知识 2013年,数学家Sébastien Bubeck发表了一篇关于图论的论文。Bubeck现为OpenAI的研究员,他表示:“我们留了一些开放性问题,后来与普林斯顿的研究生一起解决了大部分问题,但有一个问题没有解决。”之后,他将这个问题交给了基于GPT-5的系统。Bubeck说:“我们让它思考了两天,模型找到了一个奇迹般的等式,实际上解决了这个问题。”批评者认为,大型语言模型如GPT-5无法创造原创内容,只能复制训练数据中的信息,因此被称为“随机鹦鹉”。然而,尽管大型语言模型在处理简单任务时存在困难,它们仍然能够提出有用且复杂的创新想法。中心AI安全负责人Dan Hendrycks在接受《时代》杂志采访时指出:“大型语言模型确实可以执行一系列逻辑步骤来解决问题,是否将其称为‘推理’取决于个人和字典的定义。”

(来源:美国《时代》杂志  https://time.com/7341954/ai-misunderstandings-2025/)

伯尼·桑德斯敦促暂停人工智能数据中心热潮

参议员伯尼·桑德斯(I-佛蒙特州)在12月29日表示,人工智能(AI)是“人类历史上最具影响力的科技”,并呼吁对数据中心建设实施暂停。他在CNN的《周日国情咨文》节目中表示:“它将彻底改变我们的国家,改变世界。而在国会、媒体和公众中,我们还没有进行必要的讨论。”

桑德斯认为,美国需要认真考虑对数据中心发展的限制,因为公司正在迅速建设数据中心以支持AI模型所需的大量计算能力。他补充说:“实际上,我认为必须放慢这个进程。寡头们说‘它会到来,你们适应吧’是不够的。”

桑德斯指出,特斯拉CEO埃隆·马斯克、Meta CEO马克·扎克伯格和亚马逊创始人杰夫·贝索斯等世界上最富有的人参与了AI技术的发展,但并未关注其对普通工人的影响。他在接受CNN的杰克·塔珀采访时说:“技术是好的,但其功能必须是为了改善人类的生活,而不是让马斯克、扎克伯格和贝索斯变得更富有。”

桑德斯本月早些时候开始呼吁对数据中心建设实施暂停,认为这有助于让民主跟上AI发展的步伐。

(来源:国会山报  https://thehill.com/policy/technology/5665503-sanders-ai-data-centers/)


AI全球眼:2025年最奇怪的四次AI时刻;英伟达AI业务考验投资者...

AI可以在几分钟内完成过去需要一小时的工作阴影AI将从底部推动企业AI采用2026年概念而非执行将成为AI瓶颈…

2025-12-29 13:16

12月31日AI全球眼:AI治疗师崛起;Meta收购Manu强AI能力;中国...

Meta 获得 AI 能力急需增强的三大原因Meta 宣布收购新加坡人工智能初创公司 Manus其旗下人工智能初创公司…

2025-12-31 11:01
你可能也喜欢这些文章