人工智能语言(人工智能语言与伦理)

Mark wiens

发布时间:2022-09-04

人工智能语言(人工智能语言与伦理)

 

推荐好书《人工智能伦理》,定价:158元,ISBN:9787302596622

从人工智能的关键内容(包括图灵测试、数据、知识、机器学习、自我意识等)出发,尽可能地用朴素的语言讲清楚复杂的概念,揭示出各种AI伦理问题以唤起读者的思考。

未来已至,我们该如何拥抱人工智能时代?

《终结者》剧照

机器不必具有高级智能便可能对人类造成致命的伤害,像《终结者》里的情节,它们没有怜悯之心,以追杀人类为目标。在科幻电影里,我们不止一次感受到这种来自未来的威胁,它潜伏在某个邪恶科学家的实验室里,或者在那个叫天网的系统里暗流涌动。

技术没有善恶,看它掌握在什么人的手中。利用技术来作恶,遭谴责的不该是技术本身,而是使用技术的人。

随着人工智能(artificial intelligence, AI)的广泛应用,更多的 AI产品走入人们的生活。在机器拥有真正的智能之前,我们需要未雨绸缪地考虑一些哲学和伦理的问题,例如,是否应该研发有自我意识的机器?人机婚姻是否合法?机器犯罪应该如何界定?机器决策是否含有歧视?等等。

AI时代已悄悄来临,它对人机交互中的法律、心理、政治、商业、基建、社区、服务等提出了众多挑战。而人工智能伦理学还处于萌芽阶段,科学家和社会学家意识到许多问题的存在,却没能给出令人信服的答案。

例如,自动驾驶(autonomous driving)出了车祸,我们应该归咎于谁?一般的算法或编程错误不会有性命之忧,但无人驾驶却有这个风险。消费者不愿花钱买一个潜在的危险品,如果生命及财产的安全没有保障,如果相关法律责任模糊不清,自动驾驶将会引起严重的社会问题。

创造人工智能(AI)

在科学研究方面,智能机器延展了人类的探索能力。例如,嫦娥三号登月后, 玉兔号月球车开始了挖掘分析土壤样品、视频传输等工作。玉兔有自动导航、雷达测月、能源采集、天文月基光学望远镜、极紫外相机、光谱仪、立体相机等设备,帮助人类在环境恶劣的月球上完成大量的科研任务。未来会有更多、更智能的机器参与其中。

2013年12月14日,我国登月探测器嫦娥三号在月球表面软着陆

在有自我意识的机器智能到来之前,如何保护 AI技术向健康的方向发展,而不是被人性之恶所利用,成为人类文明的终结者,是我们必须正视且亟待解决的问题。技术本身没有善恶,而应用它的人类有善恶之分。如何把更多的善植入无意识的机器?如何用伦理道德来规范人工智能?这值得每一位关心人类未来命运的读者深思。

动画《铁臂阿童木》

互联网小常识:分布式内存访问技术是将对称多处理技术(SMP)与集群技术结合起来,用于多达64个或更多的CPU的服务器之中,以获得更高的性价比。

有一个哲学的分支,伦理学(ethics),也称道德哲学(moral philosophy),研究人类社会所认可的行为准则及其价值,进而构建一些道德的指导原则来评判行为的对与错、善与恶、美与丑、智慧与愚昧、正义与犯罪。伦理学大致分为元伦理学、规范伦理学、描述伦理学和应用伦理学四个领域,人工智能伦理基本属于应用伦理学的范畴。

两千多年前,我国古代先哲老子、庄子、孔子、孟子对道德伦理就有过系统的研究,其思想影响至今,已深深融入中华文明的血脉之中

诺贝尔经济学奖得主(1978)、图灵奖得主(1975)、人工智能先驱赫伯特·西蒙(Herbert Simon, 1916—2001)曾说:关于社会后果,我认为每个研究人员都有责任评估,并努力告知其他人,他试图创造的研究产品可能带来的社会后果。人工智能研究的目的是为了造福整个人类文明,因此勿以恶小而为之,勿以善小而不为。与其说用伦理道德约束机器,不如说用它来约束人类自己,所以人工智能伦理就是人类发展和利用 AI的行为准则。

现有的 AI技术很多不具备可解释性,导致模型或产品出了问题也不知道真实的原因。有些技术缺陷对人类来说是致命的,用户对可能的不良后果应有知情权。故而,对 AI产品的质量及性能的评估,需要更科学、更严谨、更系统的评测方法。

人类需要小心翼翼地发展AI技术,确保它促进文明的进化,而不是成为人类自相残杀的新式武器。人类如蜉蝣于天地,唯有理性的光辉永恒。公平而开放的合作,而不是恶意的竞争,是我们要走的 AI之路。

在联合国总部广场,矗立着雕塑打结的枪,象征着和平、宽容、理解和非暴力。它是瑞典雕塑家卡尔·弗雷德里克·路特瓦尔德(Carl Fredrik Reutersw.rd, 1934—2016)的作品,1988年由卢森堡赠送给联合国

科技是一把双刃剑,人类用它披荆斩棘,也有自伤的危险。越来越多的AI产品具备决策能力,由弱到强,它们在方便人类生活的同时,是否准确地代表我们的意愿?智能助手是否会太了解主人而成为一个泄密隐患?自动驾驶如何尽可能地保护人身安全?自主杀人机器是否应该禁止?许多 AI伦理问题等待人们的理性思考。

互联网小常识:将主机(A)资源记录手动添加到正向查找区域时,使用“创建相关的指针(PTR)记录”选项,可以将指针记录自动添加到反向查找区域中。

《人工智能伦理》是一部抛砖引玉的大众科普书,几乎没有数学公式和预备知识,面向所有对人工智能感兴趣的读者。人人都可以谈论 AI伦理,都可以关注人类和 AI的命运。这些话题不限于严谨的学者,它们是人类未来需要面对的现实。例如,智造业有造成大规模失业的风险, AI时代的教育应该如何培养新型的技术工人?机器人介入人类的生活,是否会给社会带来一些结构性的变化?在大数据时代,如何更好地保护个人隐私?我们在复杂性变得不可控之前,必须把最糟糕的情况都预想到、分析到。写此书的目的就是要把问题揭示出来,管见所及阐述一些想法,激发更多的读者参与思考与讨论。

推荐好书

《人工智能伦理》

从人工智能的关键内容(包括图灵测试、数据、知识、机器学习、自我意识等)出发,尽可能地用朴素的语言讲清楚复杂的概念,揭示出各种AI伦理问题以唤起读者的思考。

作者:于江生

人工智能 (AI) 时代已悄然而至,然而对 AI 伦理学的研究却刚刚起步。与以往的技术革命不同,AI 有望在多个领域取代人类,但也有伤害人类的潜在风险。为防止对AI技术的滥用,我们在复杂性变得不可控之前,必须把最糟糕的情况都预想到、分析到。 《人工智能伦理》从人工智能的关键内容(包括图灵测试、数据、知识、机器学习、自我意识等)出发,尽可能地用朴素的语言讲清楚复杂的概念,揭示出各种AI伦理问题以唤起读者的思考。本书基于大量真实数据,阐述了和平、合理发展 AI 技术的伦理思想,对 AI 技术可能引发的某些社会问题(如技术失业、两性平等)也做了剖析。

互联网小常识:目前无线网络的标准有IEEE802.11b,IEEE802.11a,IEEE802.11g等,IEEE802.11b仍是使用最广泛的标准。IEEE802.11b带宽最高可达11Mbps,而实际中还可采用5.5Mbps,2Mbps和1Mpbs。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186