• 2018年7月19日

    “没有感情的杀手”!外媒称人工智能武器将比核武更危险


    英国《明星日报》网站7月15日报道称,从SIRI(苹果公司在其产品上应用的一项智能语音控制功能)到自动驾驶汽车,人工智能正日益侵入我们的日常生活。

    报道称,这项技术还可能会启动一场自主的武器军备竞赛,机器已经能够在没有人类干预的情况下自动选择和打击目标。

    网络安全专家罗曼·扬波利斯基博士披露了人类是如何通过追求这项技术将自己置于灾难边缘的。

    他解释说:“人工智能比核战争对人类构成了更大的危险。”

    “核武器很危险,但是它们只是工具——一旦爆炸,就不再有另外的敌对关系。”

    “然而,人工智能不仅是一种工具,而且是一种媒介——它处于一种持续的动态关系之中,而非是单一的危险局势。”

    这名路易斯维尔大学的博士说:“人工智能能够在多个领域构成危险,而且可以动态地适应我们试图消除危险所做的一切努力。”

    报道称,人们担心,一旦主要军事大国开始推进人工智能武器研发,一场全球性的自主军备竞赛将是不可避免的,这种技术轨道的终点是大规模生产的廉价的杀人机器。

    报道称,一个超级智能的人工智能机器不可能展现出爱或恨这样的人类情感,人类也没有理由预期人工智能机器会有意识的仁慈或心怀恶意。

    扬波利斯基博士描述了人工智能会构成危险的两种最有可能的情况:“机器想要获得权力或是类似的东西这种情况不太可能发生——更有可能发生的情况是,黑客和恐怖分子恶意使用,或是有人明确控制机器来执行此类任务。”

    他说:“一种尤其需要关注的情形是,军方的人工智能机器遭到黑客攻击。”

    报道称,另一个值得关注的问题是,人工智能原本被设定做某种好事,但是它为实现自己的目标开发出一种具有破坏性的执行手段。

    例如,如果一个超级智能系统的任务是完成一项雄心勃勃的地球工程项目,其副作用可能是对生态系统造成严重破坏,甚至将人类试图阻止其的行为视为一种需要解决的威胁。

    尽管有人仍对完全自主的人工智能机器是否能够真正实现持怀疑态度,扬波利斯基博士相信这将会实现,这也是越来越多科学家的共识。

    他说:“这很可能会在我们的有生之年实现——大多数人的预测是2045年。”

    斯蒂芬·霍金、埃隆·马斯克、史蒂夫·沃兹尼亚克、比尔·盖茨和许多其他科技大佬,最近都对人工智能构成的危险表示担忧。

    _____________

    请加入我们的FacebookTwitterG+,或者新浪微博获取最快资讯,我们的微信订阅号是:sgnypost