游戏百科

全球超3000名知名人士签名呼吁,在科学界对超级智能安全可控开发达成共识前,暂停

全球超3000名知名人士签名呼吁,在科学界对超级智能安全可控开发达成共识前,暂停相关研发。这里的超级智能是能在所有领域超越人类认知的AI系统。此前“人工智能安全中心”也发声明,强调降低AI灭绝风险应成全球首要任务。 像“AI教父”约书亚·班吉欧、杰佛瑞·辛顿等都参与签名,他们直言超人类智能的AI可能带来经济崩溃甚至人类灭绝的风险。这一呼吁给正热衷AI模型竞赛的科技巨头泼了冷水,或许会成为AI行业重大转折点,看来超级智能研发的风险已引起广泛担忧。