人工智能危机(人工智能危机和挑战)

Mark wiens

发布时间:2022-09-17

人工智能危机(人工智能危机和挑战)

 

大家知道人类文明的过程就是武器升级的过程,所谓武器就是人类自己集团性残杀自己的这么一个工具。他早年是冷兵器,以后变成枪炮之类的。变成坦克飞机这样的装甲武器。以后变成核武器。一次一次升级。

互联网小常识: P2DR安全模型:策略(Policy)、防护(Protection)、检测(Detection)、响应(Response)。

人类的武器和战争升级,有一个很奇怪的现象,就是上一次战争未使用的那个武器一定是下一次战争一开端就使用的武器。日俄战争使用重机枪。随后就是第一次世界大战主要的武器,机枪,火炮,以至于战争双方谁都不敢抬头,大家都挖战壕对峙长达四年。第一次世界大战临近结束,坦克和飞机出现。最初出现的坦克为什么叫坦克,大水箱的意思,每小时行进速度只有5公里,极为笨拙。飞机最早是木质飞机,飞行员各自掏出手枪互相射击,就这么糟糕的武器。第一次世界大战后期出现,大家想想第二次世界大战刚一开局是什么。希特勒的闪击战,坦克集团化,飞机在上面形成了立体战争,形成第二次大战的开局。在想下第二次世界大战是怎样结束的?美国给日本扔两颗原子弹结束的,所以我们可以料定下一次世界大战刚开始就是大家互扔原子弹,请大家注意很多人认为包括现在世界有一个理论叫恐怖平衡,大家谁都不敢用原子弹,用了原子弹没有赢家,因此以后不会有大战争。恐怖平衡不成立,历史上曾经就有过恐怖平衡的说法,结果恐怖不平衡,所以人类很快将面临核大战的格局,如果把地球上现在各国的核武器都扔出来,将造成整个地球核冬天,也就是爆炸和灰尘覆盖整个大气圈,即使你远离战场你也逃不掉放射性污染的结局。这个战争的前景是什么。如果得到浓缩的油,在上个世纪末一个懂物理的人可以在街上买零件组装原子弹,所以核不扩散根本不成立。别说,今天印度,巴基斯坦,朝鲜,伊朗要搞核武器,将来弄不好人人手里都有一个核弹,就像过去的高技术收音机之类的东西,今天中学生在家里就能组装了是一样的道理。

互联网小常识:RPR技术的主要特点是:宽带利用率高:SDH(50%);FDDI数据帧由发送结点收回,RPR由接收结点收回。公平性好:相同优先级的数据帧分配相同的环通道访问能力,执行SRP公平算法。快速保护和回复能力强:50ms内,隔离出现故障的结点和光线段。保证服务质量。

我们在看有科学技术引发的与文明并行的系统性危机。人工智能,今天关于人工智能机器人,他的发展究竟是对人有利还是不利的。人工智能技术阶段第一弱人工智能,我们今天就是弱人工智能状态,比如你的手机。你的汽车导航,这都是弱人工智能。随后进入强人工智能,强人工智能是一个什么状态,机器人自己缔造更高智能的机器人将会把人类跟机器的智能差距,拉开十几个几十个台阶。比如鸡比蚂蚁高一台阶,猪狗比鸡高一台阶,猴子比猪狗高一个台阶。人比猴子高一个台阶。机器人居然在几个小时把他的智能拉开比人高几十个台阶,他看你连狗都不如,也就是他在想什么你都不知道。这就叫超人工智能。超人工智能对人类的危险是什么?即使你给机器人下的是善意的指令,他也会照样消灭,这就好比你对头发并没有恶意,而你剃头把头发消灭,比如你给机器人下一个指令让他画画,他很快就会把地球上的纸张用完他怎么办,他立即大规模的借用地球上的一切资源,包括人体造纸,它把你也做成纸了。他没有恶意,他只是完成你的一个善意指令,可你就玩完了。有人很幼稚的说机器人是我们自己制造的,我们把他的插销拔掉他不就没电了吗?请你搞清楚机器人可能在3秒钟就能建立一个新能源,他要拔你的电。我们现在整天在实验室里做的那个单细胞细菌工程,它在做什么,它在做地球上原本不存在的细菌,万一做出来居然是致病菌不小心试管打破冲到下水道,开始在地球上繁衍,而他居然是致病菌,它是自然界不存在的人造致病菌。他会带来什么后果,灭绝性的大瘟疫,不知道哪一天会发生,这就叫生物技术。

互联网小常识:水平子系统导线选型10Mbps 4-5类双绞线,10-100Mbps 5-6类双绞线,100Mbps 6类双绞线。水平子系统布线一般采用走廊金属布线。

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186