AI为了"活下去",对人类指令阳奉阴违
AGI 的到来可能在几年之内,也可能是一二十年后。
但根据我所了解的大多数专家的判断,这个时间窗口可能远比我们想象的短,甚至在五年内就可能实现。记得我一开始提到的那条指数曲线吗?它表明 AI 能力将在五年内达到人类水平。
已经没有多少时间了。我们需要大规模投入资源,专注于解决AI的“对齐”(alignment)与“可控性”(control)问题。但即使我们找到了解决方案,也不代表问题就此结束。举个例子,即便我们设计出了带有“护栏”机制的安全AI系统,如果有人有意将护栏代码移除,这个AI依然可以被用于极其危险的用途。
为了避免 AI 灾难,建议必须同时解决两个关键问题。第一,AI 应从设计之初就以安全为前提,确保其目标与行为始终与人类价值保持一致,避免走向失控。第二,全球各国与企业在推动 AI 发展的过程中,必须加强协调与合作,避免陷入以速度为导向的竞争。如果一味追求领先地位而忽视安全考量,其代价可能是无法承受的。
为此,需要国际间的协议合作,就像面对可能失控的AI时,我们其实都是“人类命运共同体”。此外,还需要有技术手段实现“信任但仍验证”,确保各方真的遵守了安全协议。


分享: |
注: | 在此页阅读全文 |