人工智能的应用 ppt(人工智能的应用现在还比较少还没有更大范围的普及)

Mark wiens

发布时间:2022-09-12

人工智能的应用 ppt(人工智能的应用现在还比较少还没有更大范围的普及)

 

Drone Wars UK的最新简报着眼于人工智能目前在军事环境中的应用方式,并考虑了所带来的法律和道德、操作和战略风险。

人工智能 (AI)、自动决策和自主技术已经在日常生活中变得普遍,并为显着改善社会提供了巨大的机会。智能手机、互联网搜索引擎、人工智能个人助理和自动驾驶汽车是依赖人工智能运行的众多产品和服务之一。然而,与所有技术一样,如果人们对人工智能了解甚少、不受监管或以不适当或危险的方式使用它,它也会带来风险。

在当前的 AI 应用程序中,机器为特定目的执行特定任务。概括性术语计算方法可能是描述此类系统的更好方式,这些系统与人类智能相去甚远,但比传统软件具有更广泛的问题解决能力。假设,人工智能最终可能能够执行一系列认知功能,响应各种各样的输入数据,并理解和解决人脑可以解决的任何问题。尽管这是一些人工智能研究计划的目标,但它仍然是一个遥远的前景。

AI 并非孤立运行,而是在更广泛的系统中充当骨干,以帮助系统实现其目的。用户不会购买人工智能本身;他们购买使用人工智能的产品和服务,或使用新的人工智能技术升级旧系统。自主系统是能够在没有人工输入的情况下执行任务的机器,它们依靠人工智能计算系统来解释来自传感器的信息,然后向执行器(例如电机、泵或武器)发出信号,从而对机器周围的环境造成影响.

人工智能被世界军事大国视为变革战争和获得战胜敌人的优势的一种方式。人工智能的军事应用已经开始进入作战使用,具有令人担忧的特性的新系统正在迅速推出。与军事和公共部门相比,商业和学术界已经引领并继续引领人工智能的发展,因为它们更适合投资资金和获取研究所需的资源。因此,未来人工智能的军事应用很可能是对商业领域开发的技术的改编。目前,人工智能正在以下军事应用中采用:

情报、监视和侦察

赛博战

电子战

指挥控制和决策支持

无人机群

自主武器系统

人工智能和英国军事

综合审查和其他政府声明毫无疑问地表明,政府非常重视人工智能的军事应用,并打算继续推进人工智能的发展。然而,尽管已经发布了概述使用自动化系统的学说的出版物,但迄今为止,英国国防部 (MoD) 仍然对管理其人工智能和自主系统使用的伦理框架保持沉默,尽管已经做出了一些重大决定。军事人工智能的未来用途。

英国国防部一再承诺发布其国防人工智能战略,预计该战略将制定一套高级伦理原则,以控制军事人工智能系统的整个生命周期。该战略是在与来自学术界和工业界的选定专家讨论后制定的,尽管政府尚未就与人工智能的军事用途相关的伦理和其他问题进行公开磋商。该战略的主要目的之一是向行业和公众保证,国防部是人工智能项目合作的负责任合作伙伴。

与此同时,在没有任何道德指南的情况下,计划和政策正在迅速推进,主要问题仍未得到解答。英国军队在什么情况下会采用人工智能技术?政府认为何种程度的人为控制是合适的?风险将如何解决?英国将如何向其盟友和对手证明英国打算采取有原则的方法来使用军事人工智能技术?

军事人工智能系统带来的风险

上述人工智能的每一种不同的军事应用都会带来不同的风险因素。作为国防部总部后台操作的一部分,对数据进行排序的算法会引发不同的问题和担忧,并且需要与自主武器系统不同级别的审查。

尽管如此,目前正在开发的人工智能系统无疑会对生命、人权和福祉构成威胁。军事人工智能系统带来的风险可以分为三类:道德和法律、操作和战略。

道德和法律风险

遵守战争法:目前尚不清楚机器人系统,特别是自主武器如何能够满足战争法制定的致命决定和保护非战斗人员的标准。

问责制:目前尚不清楚如果出现问题,谁来承担责任:如果计算机运行不可预测并因此犯下战争罪行,惩罚它是没有意义的。

人权和隐私:人工智能系统对人权和个人隐私构成潜在威胁。

不当使用:在战斗环境中处于压力之下的部队可能会试图修改技术以克服安全功能和控制。

操作风险

偏见的技术来源:人工智能系统的好坏取决于它们的训练数据,少量损坏的训练数据会对系统的性能产生很大影响。

偏见的人为来源:当人类滥用系统或误解其输出时,可能会导致偏见。当操作员不信任系统或系统非常复杂以至于其输出无法解释时,也会发生这种情况。

恶意操纵:军用 AI 系统与所有联网系统一样,容易受到恶意行为者的攻击,这些行为者可能试图干扰、黑客攻击或欺骗系统

战略风险

降低门槛:人工智能系统带来了政治领导人在冲突中诉诸使用自主军事系统而不是寻求非军事选择的风险。

升级管理:涉及人工智能的军事行动的执行速度降低了审议和谈判的空间,可能导致快速意外升级并造成严重后果。

军备竞赛和扩散:对军事人工智能的追求似乎已经引发了军备竞赛,主要和地区大国竞相发展其能力以保持领先于竞争对手。

战略稳定性:如果先进的人工智能系统发展到能够预测敌人战术或部队部署的程度,这可能会产生高度不稳定的后果。

本简报列出了为人工智能设想的各种军事应用,并强调了它们造成伤害的可能性。它认为,减轻军事人工智能系统带来的风险的建议必须基于确保人工智能系统始终处于人类监督之下的原则。

迄今为止,公众对人工智能和机器人技术进步所带来的社会变化和风险似乎知之甚少。这份简报的部分目的是为了敲响警钟。人工智能可以而且应该用于改善工作场所的条件和对公众的服务,而不是增加战争的杀伤力。

互联网小常识:CIDR使得路由选择变成了从匹配结果中选择具有最长网络前缀的路由的过程,这就是“最长前缀匹配”的路由选择原则。

专知便捷查看

便捷下载,请关注专知人工智能公众号(点击上方蓝色专知关注)

后台回复AIMA就可以获取【AI+军事】最新22页PPT解读人工智能军事应用,存在的道德、运营和战略风险专知下载链接

扫码添加专知微信助手获取

欢迎微信扫一扫加专知人工智能群,获取最新AI专业干货知识教程资料和与专家交流咨询!

专知,专业可信的人工智能知识分发,让认知协作更快更好!欢迎注册登录专知www.zhuanzhi.ai,获取70000+AI主题干货知识资料!

点击阅读原文,了解使用专知,查看获取70000+AI主题知识资源

互联网小常识:资源记录主要有:主机地址(A)资源记录:将DNS域名映射到IP地址;邮件交换器(MX)资源记录,为邮件交换器主机提供邮件路由;别名(CNAME)资源记录:将别名映射到标准DNS域名。

互联网小常识:VTP有三种工作模式:VTP Server 、VTP Client和VTP Transparent.Server一般一个域中只有一个。用于设置因此不需要学习VLAN信息,Transparent相当于一个独立交换机不参与VTP工作,Client不能建立、删除或修改VLAN,它只能从Sserver学习VLAN配置。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186