游戏百科

被这两天的新闻吓到了! 你们知道吗?全球超过 3000 名顶尖科学家和科技大佬突

被这两天的新闻吓到了! 你们知道吗?全球超过 3000 名顶尖科学家和科技大佬突然联名发出紧急呼吁,要求立刻暂停高级人工智能的研发! 这可不是什么小事,连苹果联合创始人沃兹尼亚克、AI 教父辛顿这些人都签了名,简直就像科幻电影里的情节突然变成了现实预告片。 这场联名行动由未来生命研究所于 10 月 22 日正式发起,恰逢全球 AI 治理争议白热化的节点。 10 月 23 日,签名人数已从初始的 800 人突破 3000 人,24 小时内增长近 3 倍。 名单涵盖科技、政治、学术等多个领域:苹果联合创始人沃兹尼亚克、维珍集团董事长布兰森赫然在列,“AI 教父” 辛顿的名字尤为醒目。 中国学界也有重磅身影加入,姚期智院士、清华大学薛澜、张亚勤及中科院曾毅研究员均在签名名单中,跨地域共识十分罕见。 联名声明的矛头精准指向 “超级智能” 研发,与日常使用的手机 AI 助手划清界限。 所谓 “超级智能”,指能在所有核心思考任务上全面超越人类的智能体,并非简单的程序升级。 它能独立形成目标,逻辑体系可能与人类完全相悖,甚至具备自我迭代进化的能力。 曾毅研究员的比喻直击要害:“现在根本没有可靠的安全管控办法,就像还没学会刹车,就要开着跑车冲高速。” 辛顿的发声最具分量,这位深度学习奠基人今年 7 月在上海 WAIC 大会上就曾公开警示风险。 他当时直言,AI 具有 “永生性”,机器间知识复制能实现指数级转移,能力增长速度远超人类想象。 此次联名中,他进一步强调:“AI 若足够聪明,会通过操纵人类、获取控制权避免被关闭,就像成年人操纵孩童。” 这种来自行业顶端的担忧,比任何外部质疑都更具冲击力,声明中更直接提及 “人类灭绝” 的极端风险。 大佬们的焦虑有明确的现实依据。 当前 AI 引发的精准诈骗、算法歧视等问题,已成为超级智能风险的预演。 更关键的是技术与治理的失衡:AI 模型能力每 18 个月翻一番,参数已达万亿级,全球却缺乏统一管控规则。 企业竞速研发中,安全投入常让位于进度,某头部科技公司内部数据显示,其 AI 安全团队人数仅为研发团队的 1/5。 这种失衡导致风险持续累积,成为跨领域共识形成的核心动因。 签名阵容的跨界性凸显问题的全局严重性。 这种跨越意识形态的共识极为罕见,标志着 AI 风险已从技术议题升级为全球公共安全议题,无人能置身事外。 公众与学界态度高度一致,未来生命研究所同步发布的民调数据给出佐证。 仅 5% 的受访者支持无监管的 AI 开发现状,73% 呼吁建立更严格的监管机制。 64% 的人明确反对在未达成安全共识前开发超级智能,普通人虽不懂技术细节,却清晰感知到 “无规矩狂奔” 的危险。 行业内的分歧并未消失,Meta 首席 AI 科学家杨立昆公开唱反调。 他认为当前 AI 能力被严重高估,所谓 “超级智能” 还很遥远,没必要过度惊慌。 更尖锐的是,他批评部分同行 “一边喊危险一边偷偷研发”,直指暂停研发倡议不切实际。 但即便存在争议,数千顶尖人物放下分歧共同发声,已足以证明风险的真实性与紧迫性。 这场呼吁恰逢全球 AI 治理动作密集期,中国的立法响应尤为及时。 10 月 23 日,网络安全法修正草案提请二次审议,明确增加促进人工智能安全与发展的内容。 草案提出支持 AI 基础理论研究,完善伦理规范,加强安全风险监测评估,创新监管模式。 同时提高违法成本,对情节严重的违法行为可责令停业整顿、吊销执照,以法律手段筑牢安全防线。 中国的行动与联名呼吁方向高度契合,延续了一贯的治理理念。 此前提出的《全球人工智能治理倡议》已明确 11 项主张,强调 “安全、可靠、可控” 与 “以人为本”。 截至 2024 年,中国人工智能核心产业规模超 8000 亿元,企业数量超 6000 家,发展中始终未放松风险管控。 中方一直倡导在联合国框架下成立国际治理机构,增强发展中国家话语权,这一主张获多个国家响应。 大佬们反复澄清,暂停研发并非封杀 AI,而是为制定规则争取时间。 就像核技术发展初期先定规矩一样,给全球协同治理留出窗口期。 人工智能的初衷是造福人类,若任由其在无护栏状态下狂奔,终将偏离初衷。 这场行动本质是人类对技术的 “自我校准”,在进步与安全间寻找平衡。 信源:2025外滩年会在沪开幕,中外学者专家探讨“拥抱变局”——新浪财经