M6米乐最新下载地址
智慧灯杆
您当前所在位置是:首页 > 专题专栏 > 智慧灯杆
AI全球前沿追踪(20241212-2025)
来源:M6米乐最新下载地址    发布时间:2025-02-26 06:03:57

  2025年2月10日至11日,巴黎举办了人工智能行动峰会(AI Action Summit),会议聚焦于公共利益人工智能、工作未来、创新与文化、人工智能信任和全球AI治理等五大主题。峰会闭幕时,约60个国家(包括中国)签署了《关于包容和可持续人工智能的声明》,旨在推动人工智能的发展更看重人权、以人为本、伦理、安全、可靠和可信赖。

  声明中,各方确定了优先事项并启动具体行动,以通过加速实现可持续发展目标(SDGs)来促进公共利益和弥合数字鸿沟。优先事项包括促进人工智能的可访问性、确保人工智能的开放性、包容性、透明度、伦理、安全、可靠和可信赖性、AI创新、鼓励在劳动力市场中部署人工智能,以及使AI对人类和地球可持续。

  尽管美国副总统万斯(J.D. Vance)在峰会上发表了主旨演讲,但美国拒绝签署该声明。与法国总统马克龙认为需要全球AI治理法规不同,万斯表示,过度监管可能会扼杀这一正在兴起的变革性行业。

  特朗普在重返白宫后不久,便废除了拜登在2023年签署的关于人工智能安全的行政命令。这一举措被视为特朗普试图与前任政策划清界限的象征性举动。然而,目前尚不清楚特朗普将如何具体调整人工智能政策,其新政府对此未作出明确回应。

  拜登的行政命令曾要求开发强大AI模型的科技公司在向公众发布前,需与政府分享系统的工作原理等详情信息。该命令还涉及多个政府机构对AI影响的研究,包括网络安全、教育、工作场所和公共福利等方面。尽管特朗普废除了该命令,但许多相关研究和建议已完成,并可供各方参考。

  特朗普的这一行动引发了业界的不同反应。一些科技行业支持者认为拜登的命令过于繁琐,可能阻碍创新。而批评者则担心,废除该命令可能会削弱对AI技术的监管,增加安全风险。尽管如此,特朗普政府尚未提出具体的替代方案,其未来的人工智能政策走向仍不明朗。

  梵蒂冈《AI领域指导方针》法令于2025年1月1日生效。该法令明确了AI相关的定义,涵盖人工智能、系统、模型、数据、生物识别数据和风险等概念。规定开展人工智能活动需遵循尊重人类尊严和公共利益的原则,确保安全、保护数据隐私、避免歧视、实现经济可持续发展等。同时,列出了一系列禁止行为,如利用人工智能进行歧视性推论、对人造成身心伤害、阻碍残疾人使用等。

  该法令还设立了由五名成员组成的“人工智能委员会”,由梵蒂冈城法律、IT和安全部门的官员组成,负责监督人工智能活动、制定实施法律、发布关于梵蒂冈城和拉特兰条约管辖地区人工智能的半年报告。

  韩国国会近日通过了《AI发展和信任建立基本法》(AI Basic Act),成为继欧盟之后第二个通过此类法案的国家。该法案旨在通过建立国家AI基本计划、支持研发、标准化、数据政策等措施,提升韩国的国家AI竞争力。法案还规定了高影响AI和生成式AI的监管框架,确保透明度和安全性。

  该法案自2026年1月起生效,将为韩国AI产业的发展提供法律支持。法案包括支持中小企业和初创企业的发展,促进AI数据中心政策,推动AI融合,以及确保AI专业人才的培养。韩国科学与信息通信技术部部长表示,该法案的通过将为韩国成为AI强国奠定基础,促进公共和私人部门的大规模投资。

  此外,韩国国会还通过了《数字包容法》,旨在确保数字技术的普及和易用性,防止数字歧视和排斥。该法案同样自2026年1月起生效,将对新政府服务和产品做数字包容影响评估,确保数字技术的公平性和包容性。

  DeepSeek 公司推出了一种名为 NSA(稀疏注意力机制)的创新技术,旨在实现超快速的长上下文训练和推理。NSA 通过优化现代硬件,加速推理速度并降低预训练成本,同时不牺牲性能。在一般基准测试、长上下文任务和基于指令的推理中,NSA 的性能与全注意力模型相当甚至更优。

  DeepSeek 的 NSA 技术展示了公司在 AI 技术领域的创新能力,通过优化硬件和开发创新算法,DeepSeek正在帮助塑造 AI 的未来及其在各行业的应用。

  马里兰大学近日提出一种全新的语言模型架构,利用循环语言模型在潜在空间中进行隐式推理,明显提升了模型的计算效率,尤其是在处理复杂推理任务时表现出色。该模型无需生成大量“思考”token 就可以获得高性能,与基于思维链的方法不同,它不需要任何专门的训练数据,能够正常的使用较小的上下文窗口,还可以捕获难以用文字表示的推理类型。实验结果为,该模型在推理基准上的性能明显提升,尤其是在数学和编程问题上,3.5B 参数的模型就可以实现 50B 参数的性能。

  研究人员表示,这种深度循环语言模型(depth-recurrent language models)在训练期间运行随机采样的迭代次数,能够在测试时通过潜在空间中的循环推理来提高性能。该模型还支持许多在非循环模型中需要大量调整的功能,如每个 token 的自适应计算、(自)推测解码和 KV 缓存共享。该研究为 AI 模型的推理能力提升提供了新的思路,有望在未来的 AI 开发中发挥重要作用。

  NVIDIA 在2025年1月6日的 CES 大会上宣布推出 NVIDIA Cosmos™,这是一个旨在加速无人驾驶汽车和机器人等物理 AI 系统开发的平台。Cosmos 通过生成大量基于物理学的逼真合成数据,帮助开发者训练和评估模型,并可通过微调构建自定义模型。Cosmos 模型将以开放模型许可证的方式提供,开发的人能从 NVIDIA NGC™ 目录或 Hugging Face 下载。

  NVIDIA Cosmos 根据 NVIDIA 的可信 AI 原则开发,第一先考虑隐私、安全、保障、透明和减少不必要的偏见。Cosmos 开放平台加入了专为减少有害文字和图像而设计的护栏,并提供了一个增强文字提示准确性的工具。使用 Cosmos 生成的视频会带有隐形水印,以识别 AI 生成的内容,减少错误信息和错误归属的可能性。

  美国西北大学的工程师们在量子通信领域取得了重大突破,成功通过光纤电缆在传输传统互联网数据的同时实现了量子隐形传态。这项研究由普雷姆·库马尔教授领导,展示了量子网络和经典网络可以共享同一光纤基础设施,为量子通信的未来发展开辟了新道路。

  库马尔及其团队克服了量子纠缠粒子被其他互联网流量淹没的挑战,选择了较少拥堵的1290纳米波长,而不是常用的1547纳米C波段。通过优化光纤电缆中的光散射条件,研究人员最小化了重叠信号的干扰。在实验中,他们使用了30.2公里的光纤电缆,同时传输量子信息和400Gbps的互联网流量,并在中途进行了量子测量,验证了量子态成功传输,证明了在繁忙流量中纠缠的稳定性。

  这一成就不仅展示了量子通信的潜力,还强调了其在现实世界中的可行性。未来,研究人员计划扩展实验范围,并采用多对纠缠光子进行纠缠交换,以增强量子网络能力,同时保持现有基础设施的优势。这项研究为量子通信的实际应用提供了新的可能性,可能会重新定义安全通信的格局。

  埃隆・马斯克(Elon Musk)领导的AI初创公司xAI于2月18日发布了其最新AI 模型Grok 3。马斯克称其为“地球上最聪明的AI”,并表示该模型在数学、科学和编程基准测试中的表现优于谷歌的Gemini、OpenAI的GPT-4o、Anthropic的Claude 3.5和DeepSeek的V3模型。Grok 3具有新功能,如高级网络搜索、在线游戏编码和“大思维”模式,可处理更复杂的问题。

  Grok 3的推出正值AI竞争加剧之际,科技巨头们正竞相投资更大的数据中心,以支持更强大的AI模型。马斯克表示,Grok 3的计算能力是xAI之前模型 Grok 2的10倍,这得益于公司在田纳西州新开设的数据中心。此外,马斯克还预告了Grok 3的“语音模式”,类似于ChatGPT等竞争对手应用中的自然对话功能,将在未来几天推出。

  中国AI初创公司DeepSeek的AI助手应用在美国苹果应用商店下载量跃居首位

  1月26日,中国人工智能初创公司 DeepSeek 开发的 AI 助手应用在美国苹果应用商店的下载量跃居首位,引发广泛关注。DeepSeek 本月早一点的时候推出了开源模型 R1,性能可与 OpenAI 的 01 相媲美,但仅使用了开发尖端系统所需专用计算机芯片的一小部分,这一成就在科技行业引起巨大震动。DeepSeek 的 AI 助手应用目前免费提供,具有三大基本功能:用户都能够向聊天机器人提问并获得直接答案;应用具有搜索模式,可从互联网获取答案;还有 “深度思考” 模式,允许用户使用 DeepSeek 的 R1 模型,该模型具有 “推理” 能力,可逐步解释其得出结论的过程。尽管该应用在功能上存在一些限制,但其免费提供和强大的功能仍可能对 OpenAI 等竞争对手构成严重威胁,其在AI领域的影响力有望进一步扩大。

  OpenAI、软银和甲骨文合资成立AI基础设施公司-星际之门,投资5000亿美元

  美国时间1月22日,OpenAI、软银和甲骨文宣布合作成立新AI基础设施公司——星际之门(The Stargate Project),计划投资5000亿美元。该项目旨在建设物理和虚拟基础设施,为下一代人工智能提供动力,包括在全国各地建设数据中心。五家公司各自投入1000亿美元作为启动资金,并在未来几年内逐步投入剩余资金。甲骨文与OpenAI还达成了协议,甲骨文将为其提供AI计算资源。

  OpenAI首席执行官萨姆·奥特曼表示,美国的基础设施建设对于保持其在AI领域的领头羊至关重要。软银首席执行官孙正义将担任星际之门的董事长,软银负责财务,OpenAI负责运营。此外,微软、Arm、Nvidia等公司也将作为技术合作伙伴参与该项目。

  星际之门的第一个数据中心项目已在得克萨斯州开工建设,未来还将在美国全国范围内评估更多潜在地点。该项目预计将创造数十万个就业机会,并为美国带来非常大的经济效益。

  OpenAI、软银和甲骨文宣布合作成立新AI基础设施公司——星际之门(The Stargate Project)(图源:X)

  RTX 5090的总功耗为575瓦,建议搭配1000瓦电源。尽管功耗较高,但英伟达表示其能效比更高,实际使用中很少要达到满负荷功耗。此外,RTX 50系列还包括RTX 5080、RTX 5070 Ti和RTX 5070,分别定价999美元、749美元和549美元。这些显卡也将于1月30日和2月陆续上市,为广大购买的人提供更多选择。

  前谷歌CEO埃里克·施密特(Eric Schmidt)近日发出警告,强调人工智能(AI)技术可能被利用,从而带来极端风险。施密特在一次访谈中表示,AI的快速发展和大范围的应用,使其成为潜在的工具,这需要国际社会的高度关注和有效应对。

  施密特指出,AI技术的开源特性和易获取性,使得恐怖组织能利用其进行攻击策划和实施。他强调,AI不但可以用于自动化攻击,还能够适用于监控、情报收集和心理战。这些技术的应用可能会加剧全球安全威胁,尤其是在活动日益复杂和多样化的背景下。

  施密特的警告引发了国际社会对AI安全的广泛讨论。许多专家和政策制定者呼吁,需要在技术发展的同时,加强AI伦理和安全规范的制定,以防止其被用于恶意目的。施密特本人也建议,各国政府应加强合作,制定统一的AI安全标准和监管框架,以应对潜在的威胁。

  随着AI技术的慢慢的提升,如何平衡技术创新与安全风险,已成为全世界关注的焦点。施密特的警告无疑为这一讨论增添了新的紧迫性,促使各国在推动AI发展的同时,更加重视其潜在的安全隐患。

  在巴黎举行的人工智能峰会上,美国副总统 JD Vance 警告全球领导人和技术行业高管,过度的监管可能会扼杀快速地发展的AI行业,这被视作对欧洲试图限制 AI 风险的努力的反驳。此次演讲凸显了美国、欧洲和中国在 AI 技术未来发展上的三方分歧,批评者警告这种分歧可能会引起人类进步或技术衰退。美国在特朗普总统的领导下,主张采取自由放任的方法以促进创新,而欧洲则通过严格的规定来确保安全和责任。与此同时,中国正通过国家支持的科技巨头迅速扩展 AI,争夺全球主导地位。有必要注意一下的是,美国未签署由 60 多个国家签署的国际文件,该文件旨在促进负责任的 AI 发展,使特朗普政府在全球承诺中成为异类。英国也拒绝签署该文件。

  在峰会上,Vance 发表了他自上个月成为副总统以来的首次重大政策演讲,将 AI 视为一个经济转折点,但警告称:“过度监管可能会阻止创新者承担推动技术进步所需的风险。” 这位 40 岁的副总统利用 AI 峰会和本周晚些时候在慕尼黑的安全会议,寻求展示特朗普强有力的外交风格。Vance 还批评外国政府对美国科技公司 “紧缩螺丝”,称此举令人担忧,凸显了华盛顿与其欧洲盟友在 AI 治理上的分歧。此次峰会暴露了全球对 AI 的权力争夺——欧洲寻求严格的规则和公共资金,中国通过国家支持的 AI 扩张,而美国则全面采用自由市场方法。

  在 2025 年消费电子展(CES)上,英伟达 CEO 黄仁勋发表了主题演讲,强调 AI 技术的快速发展及其对未来社会的影响。他表示,未来每个人都将管理自己的 AI 代理,这些代理将帮助人们处理从简单日常事务到复杂决策支持的各种任务。黄仁勋指出,AI 技术的进步不仅限于云端,还将深入到个人电脑和移动电子设备中。他提到,通过 WSL2 技术,Windows PC 将更好地支持 AI 应用,使开发者更方便地在 PC 上开发和部署 AI 模型。

  在问答环节中,黄仁勋回答了关于 AI 在游戏、无人驾驶、机器人等多个领域的应用问题。他强调,AI 的未来在于其能够理解和互动物理世界的能力,这将推动无人驾驶汽车、机器人等技术的发展。黄仁勋还讨论了 AI 技术的可持续性问题,表示英伟达将继续推动 AI 技术的发展,同时关注其对社会和环境的影响。他提到,英伟达正在与全球合作伙伴一起,确保 AI 技术的发展能够惠及所有人。

  最后,黄仁勋对未来的 AI 技术充满信心,认为 AI 将成为推动社会进步的关键力量。他鼓励年轻一代学习怎么样利用 AI 技术,为未来的挑战做好准备。

  2025年1月4日,瑞典皇家工程科学院(IVA)举办了人工智能研讨会,诺贝尔物理学奖获得者 Geoffrey Hinton 教授发表重要观点。Hinton 教授指出,人类面临独特局面,拥有旧石器时代的大脑、中世纪的制度,却掌握了类神的技术。他强调,人工智能的理解方式与人类相似,通过神经网络中的学习实现,而非传统符号 AI 理论所认为的推理。

  Hinton 教授对AI的加快速度进行发展表达了担忧,特别是其可能带来的生存威胁。他提到,AI系统已在某些方面展现出与人类相似的理解能力,甚至在某些任务上超越了人类。以他 1985 年的神经网络语言模型为例,说明了AI在理解句子方面的潜力。他还与其他专家讨论了人工智能的伦理问题、数据来源的追溯以及如何确保人工智能的安全性等议题。他指出,AI系统的伦理问题源于数据的选择和策划,而目前的训练方法可能会引起模型学习到不良内容。此外,他还提到了AI在能源效率方面的挑战,认为数字智能可能比模拟智能更高效,但也需要更加多的能量消耗。

  Hinton 教授的观点引发了与会者的广泛讨论,他们探讨了人工智能的未来发展趋势、潜在风险以及应对策略。此次研讨会为AI领域的研究者、从业者和政策制定者提供了宝贵的交流平台,有助于推动全球对人工智能技术的深入理解和合理应用。