您现在的位置:主页 > 新闻动态 >

霍金等千名专家签署公开信敦促禁止“杀人机器人”

时期:2022-09-09 23:26 点击数:
本文摘要:1000多名著名科学家和人工智能领域专家近日签订公开信,警告有可能经常出现人工智能军备竞赛,并呼吁联合国公布针对攻击性自动化武器的禁令。 据英国《卫报》报导,公开信的签订者还包括着名科学家斯蒂芬威廉霍金、特斯拉CEO伊隆马斯克、苹果牵头创始人史蒂夫沃兹尼亚克以及谷歌人工智能项目负责人米斯哈撒比斯等。这封信已在网上公开发表,并于日前递交至在阿根廷布宜诺斯艾利斯开会的国际人工智能牵头会议。

华体会体育

1000多名著名科学家和人工智能领域专家近日签订公开信,警告有可能经常出现人工智能军备竞赛,并呼吁联合国公布针对攻击性自动化武器的禁令。  据英国《卫报》报导,公开信的签订者还包括着名科学家斯蒂芬威廉霍金、特斯拉CEO伊隆马斯克、苹果牵头创始人史蒂夫沃兹尼亚克以及谷歌人工智能项目负责人米斯哈撒比斯等。这封信已在网上公开发表,并于日前递交至在阿根廷布宜诺斯艾利斯开会的国际人工智能牵头会议。

  公开信称之为:人工智能技术早已发展到这样一种地步:尽管不合法,自动化武器的用于将在几年内而不是几十年内会沦为现实。这将带给很大的风险,自动化武器早已被称作时隔火药和核武器之后的武器的第三次革命。  这封信指出,人工智能可以让战场对军事人员而言更加安全性,但是需要自律操作者的攻击性武器不会减少战争再次发生的门槛,从而给人类生命带给更大的损失。

  公开信认为,如果某个军事力量开始研发能自由选择反击目标并在没人类必要操纵情况下自动运营的武器系统,不会像当年的原子弹一样引起军备竞赛。而与核武器有所不同的是,人工智能武器并不需要明确的、难以生产的材料,因此很难对其生产展开监控。这封信称之为,人类今天所面临的关键问题在于,是在全球范围内启动一场人工智能军备竞赛,还是将其助长在兴起状态。

华体会体育app

  新南威尔士大学人工智能教授托比沃尔什对这一敦促回应反对:我们必须在当下作出要求,这个要求将支配我们的未来,并事关我们否回头在准确的道路上。  杀人机器人是当今的热议话题。霍金和马斯克此前都曾警告说道,人工智能是人类仅次于的威胁,而且几乎人工智能的发展将造成人类的落幕。

今年4月,联合国曾专门开会会议辩论了还包括杀人机器人在内的未来武器的发展,这次会议曾考虑到针对某些特定类型的自动化武器施行禁令,但遭一些国家的赞成。


本文关键词:霍金,华体会体育app,等,千名,专家,签署,公开信,敦促,禁止,“

本文来源:华体会体育-www.wxxsgs.com



Copyright © 2001-2021 www.wxxsgs.com. 华体会体育科技 版权所有 备案号:ICP备20313349号-4