AI崛起,人类存亡未卜!风险高达10%-20%
科技快讯中文网
12月29日消息,2024年诺贝尔物理学奖得主、被誉为“AI教父”的辛顿(Geoffrey Hinton)表示,AI有10%-20%的可能性在未来30年内导致人类灭亡。
在访谈中,在最近的一次访谈中,主持人询问了辛顿关于AI末日的可能性以及10%的发生概率是否有所改变。辛顿表示,这一概率依然保持在10%到20%之间,没有明显的变化。 这种稳定的评估反映了人工智能领域专家对于潜在风险的持续关注。尽管技术进步迅速,但辛顿的观点表明,对于AI可能带来的极端风险,专家们仍持谨慎态度。这样的观点提醒我们,虽然人工智能带来了许多便利,但我们仍需保持警惕,确保技术的发展不会失控。
主持人则表示“机率增加了”,辛顿接着表示“如果一定要说,你看,我们以前从未和比我们聪明的东西打交道。”
他认为,建立AGI(通用人工智能)或超越人类智能的系统,有可能使其逃脱人类的控制,从而对人类生存构成威胁。这一情况在2024年12月依然没有改变。
“由于我们目前所处的状况是,该领域的多数专家认为,在未来的20年内,我们可能会开发出比人类更聪明的人工智能,这无疑是一个极其令人担忧的想法。”辛顿表示。
辛顿直言:仅仅依赖大公司在利润驱动下的行为,并不能保证他们会在开发技术时做到安全。“唯有政府的监管才能迫使这些大型企业投入更多资源进行安全研究。” 这句话在2024年12月依然适用。
免责声明:本站所有文章来源于网络或投稿,如果任何问题,请联系648751016@qq.com
页面执行时间0.011147秒