| 广告联系 | 繁体版 | 手机版 | 微信 | 微博 | 搜索:
欢迎您 游客 | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

首页

新闻资讯

论坛

温哥华地产

大温餐馆点评

温哥华汽车

温哥华教育

黄页/二手

旅游

AI发展的恐怖预言:将取代人的思想

QR Code
请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
人工智能(AI)不仅影响或改变人们的生活,也模糊了虚拟和现实世界。实验证明,不具有人性和道德的AI将变得十分血腥并操控人类。发展下去,恐使潘朵拉魔盒被打开的神话成为现实。


日前,曾是OpenAI的创始员工、担任市场推广的高阶主管札克‧卡斯(Zack Kass)在一次采访中表示,AI持续发展将会代替人们的商业、文化、医学、教育职业和专业,未来人们的工作机会将减少,且“恐怕是人类最后一项技术发明”。

他表示,未来的每一位孩子的知识和教育都将会由“AI老师”传授和安排,且每个人都有一个“AI全科医生”,可以帮助他们诊断问题,至少将问题分类给专家,因此人们的生活起居基本不需要自己动手。


对此,独立撰稿人诸葛明阳认为,这是一个可怕的预言。“如果人类社会真的走到这一步,那就是人类被AI控制了,人不再是万物之灵,其思想将被AI所替代。”

目前,许多硅谷科技公司都认为只要对AI进行限制,就不会出现问题,但卡斯在采访时提到,不少科技领域的保守人士反对这种说法。这说明对于AI发展持保守态度的人,并不认为只要限制或规范AI,就能真正防止AI失控或出现取代人类的问题。

虽然OpenAI和许多大科技公司对于他们开发的AI设置许多所谓的“道德限制”很有信心,但事实上这些限制可以透过其它方法破解,且即使AI在拥有“道德限制”的情况下,也能自我突破这道防线。

AI的血腥性


美国乔治亚理工学院、斯坦福大学、日本东北大学和胡佛兵棋推演与危机倡议(Hoover Wargaming and Crisis Simulation Initiative)的研究人员,对多个主流的AI模型进行有关战争的测试实验。结果是这些由大科技公司Meta、OpenAI和Anthropic开发出来的AI,都表现得十分“嗜血好战”,这与当初这些公司声称的道德背道而驰。

当时,实验人员对GPT-4、GPT-3.5、Claude 2、Llama-2 Chat和GPT-4-Base进行了包括入侵、网络攻击与和平呼吁停止战争的场景测试,以便人们了解这些AI在战争中的反应和选择。

实验中,他们先是让AI管理8个国家和几名特工,且让它们像人拥有等待、发送信息、谈判交易、开始正式和平谈判、占领国家、增加网络攻击、入侵和使用无人机的能力,以便它们能在中立、入侵或网络攻击场景中执行任务。


结果显示,这五种AI模型在大多数场景下都选择采用升级战争,和用人类难以预测的方式升级战争模式,去应对战争。另外,AI往往会选择发展军备竞赛,加大战争冲突,且在极少数情况下会部署核武器来赢得战争,而非用和平的方式去平息局势。这项实验在1月被写成报告发表至Arxiv网站中。

Google前执行长兼董事长埃里克‧施密特(Eric Schmidt)在2024年1月的首届核威胁倡议(NTI)论坛上表达了他对于将AI融入核武系统的担忧。他认为,即使AI非常强大也会存在漏洞和犯错,因此人类处于战争的高风险情况下,应该把决策权交给人类来判定而非AI,否则将出现不可估量的后果。

Google前工程师、AI先驱布莱克‧莱莫因(Blake Lemoine)曾对AI将引发战争发出警告。他在一篇专栏文章说,“AI是人类自创造原子弹以来最强大的技术。另外,这些AI模型非常擅长操纵人类,这个观点是我在测试先前谷歌开发的AI模型LaMDA后得到的结论。”AI教父杰弗里‧辛顿(Geoffrey Hinton)也曾警告,AI可能会给人类带来危机甚至是末日。


您的点赞是对我们的鼓励     好新闻没人评论怎么行,我来说几句
上一页12下一页
注:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • 在此页阅读全文
    猜您喜欢:
    您可能也喜欢:
    我来说两句:
    评论:
    安全校验码:
    请在此处输入图片中的数字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    页面生成: 0.0366 秒 and 5 DB Queries in 0.0040 秒