加强超级人工智能(ASI)风险研究的公开倡议

频道:热点 日期: 浏览:1

当前,超级人工智能(ASI)的研究正从理论探讨步入早期实践。海外科技界率先发起针对超大公司主导的ASI研究的安全倡议,国内也有头部企业亦开始布局相关探索。这一技术拐点不仅关乎智能突破,更伴随巨大的潜在风险,必将进一步深度重构人类文明,甚至通往令人担忧的纯粹机器文明。

2025年10月23日,科学界发起了ASI的声明Statement on Superintelligence,提出可能存在人类灭绝的风险。辛顿、本吉奥、姚期智等国内外著名科学家联合署名支持该份声明,详情请见:

https://superintelligence-statement.org/。

事关重大,人文社会科学界不应落后。我们呼吁学术界即刻启动跨学科协作研究,深入研究并向全社会阐明ASI的潜在风险及其可能的应对战略,为共同应对ASI可能带来的灾难性风险和存在论风险出一份力。

技术层面,需建立透明性的ASI,确保ASI智能系统与人类文明价值观的兼容性。

伦理层面,应努力构建社会公正、预防失控风险等相关制度设计,防范结构性失衡。

人文层面,亟需探讨ASI的人文关怀,帮助社会理解超级智能的文明冲击。这不仅是技术和科研的攻关,更是对人类命运共同体的责任担当。

我们倡议成立跨学科研究联盟,汇聚哲学家、伦理学者、计算机科学家、AI工程师、传播学家、法律专家、科幻作家和媒体朋友等各方面力量,切实加强超级人工智能风险研究。

期待各位同仁签署联名,以学术共同体的智慧照亮技术前路,确保超级智能始终服务于人类文明的永续发展。

(附:此倡议通过学术机构、社交媒体、报纸期刊等多渠道征集签署,我们正同步筹备首届“ASI与未来人类”跨学科论坛,将于11月9日在中国人民大学召开。)

倡议人:

杨庆峰(复旦大学教授)

刘永谋(中国人民大学教授)

闫宏秀(上海交通大学教授)

发起日:2025年10月23日