排列3官网平台_排列3网投平台_排列3投注平台_排列3娱乐平台 - 排列3官网平台,排列3网投平台,排列3投注平台,排列3娱乐平台为广大网友提供全面的资讯、源代码程序、海量新闻、强大的搜索优化辅助工具、网络产品设计与运营理念以及一站式网络解决方案,十年来我们一直致力为中文网站提供动力。

从沙特油田遭无人机蜂群攻击分析 如何应对人工智能袭击

  • 时间:
  • 浏览:0

沙特国家石油公司的两处设施近日遭到无人机袭击,沙特原油供应因而每日减少570万桶,约占沙特石油产量的30%。也门胡塞武装部队发言人声称对此次袭击负责,并提到当日出动了10架无人机,并称将来都会继续扩大对沙特的袭击范围。

当很多 的媒体讨论此次袭击带来的政治和经济影响时,袭击所使用的武器——无人机等技术也值得关注。在现代战争中,无人机的优点显而易见:效率较高、无人员伤亡风险、生存能力强和机动性能好。甚至另一个人担心,给无人机配载图像识别软件,它就后能 完成目标追杀乃至对某个种族的清洗。

无人意味着着分析如可影响战争,在人工智能日新月异的今天,无人机+人工智能会把现代战争引向何方?这个 恐怕是当当另一个人更为关心的大大问题。

在中信出版社出版的《终极智能》中,当当另一个人后能 看多相关专家对未来战争的构想。作者阿米尔·侯赛因是IBM“沃森”认知计算平台顾问,也是一位创造创造创造发明、计算机科学家和企业家,拥有22项美国创造创造发明专利以及40多项申请中的专利。侯赛因在书中讲述了人工智能对社会生产和化活的积极影响,也讨论了人工智能带来的风险,其蕴含一章重点描述了人工智能与战争的关系。

提到无人机时,侯赛因说,尽管无人机不再后能 飞行员贴近战场,可由人类远程操作,但仍在或多或少缺点。比如意味着着分析延迟而不能自己执行高速空对空战斗,比如容易趋于稳定通信拥堵而让无人机抛妻弃子联络,比如后台的人类飞行员意味着着分析难以承受真实战争所带来的压力。当当另一个人都频繁地执行任务,容易意味着着分析创伤后应激障碍(PTSD)。

而随着人工智能技术的快速发展,这个 缺点都将被克服。侯赛因描述说,搭载了人工智能、真正具有自主能力的机器和机器人,将成为未来超级战争中的士兵。它们像商业四轴飞行器一般大小,或多或少不能穿越森林和旷野,还后能 快速聚集、行动和隐藏。它们将配备精密的传感器,为群体作战和在集合地点时的视觉和决策算法提供信息。除此之外,它们还配备了各种网络和动力负载。大主次此类系统都后能 通过群集算法协调,使“另另5个 集体”不能完成任务,并使无人机不能提供支援且根据损失状况进行调整。

提到高科技带来的军事革命,阿米尔·侯赛因总结说,深度图学习、人工智能自主决策、先进的传感器、部署在“边缘”的微型高性能计算能力、高速网络、进攻和防御网络能力以及或多或少各种人工智后能 力的聚集将带来一场军事革命,战争辦法 意味着着分析有革命式的改变:人类在战争中的作用最小化。在未来的战争中,当当另一个人将看多人类提供广泛的、高级别的输入,而机器将被用于规划、执行和适应任务,并在不到或多或少输入的状况下做出数千个独立决定。

展望未来,人工智能开发人员将遵循这个 指导原则,在其应用系统系统进程中建立对抗保护辦法 :

假设有意味着着分析对所有在用人工智能资产进行恶意攻击

意味着着分析人工智能部署非常广泛,开发人员应认识到当当另一个人的应用系统系统进程极易成为被恶意操纵的目标。

人工智能的趋于稳定是为了实现认知、感知和或多或少行为的自动化,意味着着分析它们能产生令人满意的结果,会意味着着分析其“智能”而得到表扬。然而,人工智能在对抗恶意攻击上非常脆弱,在认知、感知和或多或少行为上意味着着分析表现的非常愚蠢,在同样的环境下,会比任何正常人类都糟糕。

在启动人工智能开发完后 进行恶意风险评估

在开发人工智能应用系统系统进程完后 以及在其整个生命周期中,开发人员应该坦率地评估项目在恶意攻击身后所呈现的漏洞。

正如IEEE在2015年出版的研究论文所指出的,开发人员应评估未授权方直接访问人工智能项目关键组成的意味着着分析性,包括神经网络架构、训练数据、超级参数、学习辦法 ,以及所使用的损失函数等。

此外,论文还显示,当训练数据被用于优化人工智能神经网络模型时,攻击者后能 从相同的源或分配的数据中分发替代数据集。这后能 让攻击者深度图分析有这个 伪造的输入数据不能愚弄另另5个 分类器模型,而之类于于模型是采用目标深度图神经网络开发的。

在文章介绍的另有一种 攻击辦法 中,攻击者即使不到直接看多目标神经网络和相关的训练数据,也意味着着分析利用战术我能 们能观察“输入和输出变化之间的关系…以应用精心制作的恶意攻击模板。”

把在人工智能训练流水线中生成对抗实例作为标准活动

人工智能开发人员应尽心于研究如可在卷积神经网络(CNN)趋于稳定理的图像中置入聪明的对抗辦法 的各种辦法 。

数据科学家应利用很多 的开源工具,之类于GitHub的工具,产生对抗实例来测试CNN和或多或少人工智能模型的漏洞。更广泛地,开发人员应考虑很多 的基础研究,研究重点是为训练生成对抗网络(GAN)产生各类对抗实例,包括这个 不直接用于抵御网络攻击的实例。

认识到对抗实例后能 依靠人类管理者和算法鉴别器

恶意攻击的有效性取决于它后能 欺骗人工智能应用系统系统进程的最后一道防线。

肉眼一眼就能看出对一副图像的恶意操作,但仍然能愚弄CNN,把图像分错类。相反,人类管理员意味着着分析不能自己区分不同的恶意操作,而GAN训练有素的鉴别器算法能毫不费力地区分出来。

对于第5个大大问题,有一种 很有效的辦法 是,在GAN中,另另5个 对抗模型改变输入图像中的每个数据点,尽意味着着分析让分类跳出错误,而对抗鉴别器模型则要尽意味着着分析的减少分类错误。

构建使用一系列人工智能算法来检测对抗实例的全套模型

对于恶意篡改图像和或多或少数据对象等行为,或多或少算法要比或多或少算法更敏感。之类于,坎皮纳斯大学研究人员发现在有一种 场景中,另另5个 浅分类器算法不能比深度图CNN更好地检测出恶意图像。当当另一个人还发现,或多或少算法非常适合用于检测对整副图像的操作,而或多或少算法能更好地找出一小主次图像中的细微行态。

使CNN不能免受这个 攻击的有一种 辦法 是,在人工智能模型训练过程中,在反向传播权重中添加康奈尔大学研究员Arild Nkland所谓的“对抗梯度”。对于数据科学团队,应在开发和化产环境中使用A/B测试辦法 来测试不同算法在恶意检测上的相对优势,这是比较周全的做法。

重用恶意攻击防御知识以提高人工智能抵抗伪造输入实例的能力

正如IEEE在2016年出版的一篇研究论文所指出的,数据科学家后能 使用转移学习技术来帮助CNN意味着着分析或多或少模型抵御对输入图像的恶意篡改。传统的转移学习技术涉及把统计知识从现有模型应用到不同的模型中,文章讨论了如可提取出模型的现有知识(通过对有效数据集进行训练而得到),用于发现恶意篡改。据作者报告,“在训练过程中,当当另一个人使用防御提取技术帮助模型更好地推广应用于训练数据集之外的样本,使模型不能更顺畅的在分布式神经网络体系行态中进行学习。”

结果是,另另5个 模型能更好地识别出恶意实例(之类于于其训练集里的实例)和非恶意实例(这个 意味着着分析与训练集跳出大幅主次的实例)之间的差别。

意味着着分析不到这个 实践作为其辦法 的标准主次,数据科学家意味着着分析会无意中把容易受骗的自动算法上放当当另一个人的神经网络中。当当另一个人的生活不到依赖人工智能在各种状况下去聪明的工作,或多或少,这个 恶意漏洞意味着着分析会是灾难性的。这就让 为这个 数据科学家和人工智能开发人员后能 制定适当的保护辦法 来管理人工智能应用系统系统进程的开发、培训和管理的意味着着分析。

进入“机器人”首页,浏览更多精彩内容 >>