2025年世界经济论坛年会聚焦”智能时代的合作”,人工智能成为与会嘉宾热议的焦点。物理学家、宇宙学家和人工智能科学家Max Tegmark教授在接受新浪财经采访时,表达了对通用人工智能(AGI)的担忧。他认为,工具型AI能够造福人类,但在我们掌握控制方法之前,构建AGI是极其危险的。
Tegmark教授指出,AGI可能发展成为一个新的、比人类更强大的物种,从而失去人类的控制。他认为,目前距离AGI的实现可能比之前预想的更近,部分专家甚至认为今年就能实现。因此,我们必须现在就开始讨论AGI的风险,并确保人类能够继续掌控地球。
Tegmark教授在达沃斯论坛上分享了他的观点,并得到了许多与会者的认同。虽然一些公司大力游说,试图继续不受限制地发展AGI,但美国大多数民众,包括共和党和民主党支持者,都赞成禁止AGI,专注于发展工具型AI。
Tegmark教授进一步解释说,人工智能革命的关键在于信息处理方式,而信息处理的载体(碳原子或硅原子)并不重要。机器的规模不受生物限制,一旦创造出与人类一样聪明的机器,制造出更强大的机器也并非难事。这将导致人类在思考速度上被远远甩在后面,从而面临潜在风险。