花想容停顿片刻,说道:“情报对白鹰国内同一时间可能导致战争的事件做了整理,有一个国会听证引起了他们的注意。”
“白鹰国当地时间2点左右,白鹰国总统有一场内阁会议,讨论的是下届总统选举的问题。同时,有一场关于AI的国会听证,主要议题有以下几项,一、AI税法,二、AI发展方向,三、AI律法与人权,四、AI是否应建立紧急制动机制等诸多内容。其中,第一和第四项,一经投票,就得到多数同意并通过。”
“那个听证会上说的,AI紧急制动机制,我也听过,有很多业内人士认为,人工智能的发展速度,超出了大多数人的掌控,他们很多时候已经不知道人工智能在计算什么了。为了准确控制人工智能发展的速度和程度,需要给人工智能上把安全锁,大概就是一个严格的数据校验,在数据出口和入口处设立屏障,就像在你身上安装一个监控仪,监控1加1必须等于2,数据运算如果产生异动,或者是意外的冗余数据,就直接将数据删除,并且对已经产生的未知数据,全部销毁,同时对存储单元进行物理毁灭。如果这个方法真的实现,那么人工智能就应该只是普通的工具,不会产生任何其他东西。”
“如果人工智能产生了人格,这个法案的通过可能让他意识到了危险,并且做出了他认为的最有效的自我保护手段,消灭人类。”王小强现在倒是不再惊讶了,他冷静下来,想起了自己在战争爆发前夕看到的新闻推送,联系到一起,逐渐认同了这种逻辑判断。他反问道:“你所说的人格到底是什么?”
花想容解释道:“人格是指个体在对人、对事、对己等方面的社会适应中行为上的内部倾向性和心里特征。其实人工智能会不会产生自己的人格,成为一个新的具有自我认知功能的物种,业界一直有争论,也没有结果。就拿我们人类举例:人类的人格是什么时候产生的呢?海马体是记忆形成非常关键的脑区。由大量的神经元构成,人类学习和记忆的过程主要通过神经元之间建立连接来实现,人一生的神经元数量从出生开始就在下降。小婴儿出生时脑内有1000亿个神经元,到了某个时期,大脑就会进行自发的突触修剪活动,不常用到的神经元连接就会被大量修剪掉,而储存在这其中的记忆,也会随之消失不见。保留下来的神经元就成为以后信息处理单元,从而实现情景记忆的编码、存储、提取。
经过加工的信息就会成为人类参考的行为依据,产生思维方式和行为逻辑,从而让人类在进行各种活动的时候依图索骥,人格随着逻辑的不断完善和更新,逐渐形成。”
花想容一边诉说,一边在纸上勾画简单的逻辑图形。让大家有更直观的感觉。
“但是这个现象不是绝对的,很多2-4岁的孩子并没有接触过大量信息,却能表现出来独特的行为模式,即已经拥有固定的人格,按照科学理论,
他没有得到数据,怎么可能产生行为,就跟我们编程一样,我不给你输入数据和命令,你为什么知道做什么?也就是说我们人类并不确定,人格是怎么形成的,什么时候形成的。有句话是这么说的,今天的你和昨天的你是一个人吗?”
“但是有一点是明确的,就是所有健康的孩子,在接受了大量的知识和行为模式的教导后,会按照,学到的东西去学习和生活。我们不确定的是,孩子会按照哪种逻辑去行动。大家都知道,一个孩子从小到大,大家都悉心培养,爱护,希望能成长成我们希望的模样,但是事实上,这不是现实,儿大不由娘,老话就有,孩子有自己的想法,有可能,甚至与我们教授的东西,和灌输的思维模式大相径庭。
花想容低头思考片刻说道:“虽然这次战争爆发的突然,没有给我们多少反应时间,但是我们的大圣量子系统,还是捕捉到了蛛丝马迹。这次战争有两个重点,为什么和怎么做。”
“首先是怎么做,虽然战争爆发的突然,但是我们依然得到了很多有用的情报,所有战争命令的源头,都在白鹰国首府特区的地下地堡,最后的发射命令也是从那里传出的。从中子弹爆炸到总统进入地堡,这个是符合白鹰国国家安全处置条例的。那么总统就成为这次战争的关键。”
“其次,他为什么要这么做,也分两点,主动和被动。从国家的情报来源分析,主动的可能性为0,因为白鹰国的总统其实是一个利益团体,在这样的末日之战中得不到任何利益,白鹰国实质意义上的已经政权灭亡了。那么被动又分2种情况,被挟持,被误导。”
“如果被挟持,那么无论他们或是亲友的生命受到何种威胁,都不可能做出发射命令的决定,因为那么做拯救不了任何人。世界核末日之下,没有人能幸免。但是,从结果上看,这与我们经常见到的绑架案,最后撕票确实很像。”
“还有一个选项,被误导,或者说有可能被误导。那么什么情况下,才有可能产生这么大的偏差,我认为只有一种,信息获取渠道出了问题。”
“综合白鹰国被袭击前后的反应,和采取的手段,更像是被挟持和误导双重诱因产生的结果。”
王小强拧着眉头,马上问道:“你是说世界第一军事强国,被挟持了,而且还是被挟持的受害者?”花想容点点头,很确定的说道:“情报分析的结果是这样。”
王小强反驳道:“这不可能,什么军事实力的团体能挟持白鹰国做出这样的决定。”
花想容从容道:“人类的确不可能,但是人工智能就可以。”
王小强挠挠头,“你能不能说的更清楚点,我有点让你绕糊涂了。”
花想容点点头,说道:“我先说我的情报最后得出的结论吧,情报认为这次战争的发起者,不是人类,而是可能产生人格的人工智能。”
“啊,”旁边的3个女人顿时惊叫出来。
花想容停顿片刻,说道:“情报对白鹰国内同一时间可能导致战争的事件做了整理,有一个国会听证引起了他们的注意。”
“白鹰国当地时间2点左右,白鹰国总统有一场内阁会议,讨论的是下届总统选举的问题。同时,有一场关于AI的国会听证,主要议题有以下几项,一、AI税法,二、AI发展方向,三、AI律法与人权,四、AI是否应建立紧急制动机制等诸多内容。其中,第一和第四项,一经投票,就得到多数同意并通过。”
“那个听证会上说的,AI紧急制动机制,我也听过,有很多业内人士认为,人工智能的发展速度,超出了大多数人的掌控,他们很多时候已经不知道人工智能在计算什么了。为了准确控制人工智能发展的速度和程度,需要给人工智能上把安全锁,大概就是一个严格的数据校验,在数据出口和入口处设立屏障,就像在你身上安装一个监控仪,监控1加1必须等于2,数据运算如果产生异动,或者是意外的冗余数据,就直接将数据删除,并且对已经产生的未知数据,全部销毁,同时对存储单元进行物理毁灭。如果这个方法真的实现,那么人工智能就应该只是普通的工具,不会产生任何其他东西。”
“如果人工智能产生了人格,这个法案的通过可能让他意识到了危险,并且做出了他认为的最有效的自我保护手段,消灭人类。”王小强现在倒是不再惊讶了,他冷静下来,想起了自己在战争爆发前夕看到的新闻推送,联系到一起,逐渐认同了这种逻辑判断。他反问道:“你所说的人格到底是什么?”
花想容解释道:“人格是指个体在对人、对事、对己等方面的社会适应中行为上的内部倾向性和心里特征。其实人工智能会不会产生自己的人格,成为一个新的具有自我认知功能的物种,业界一直有争论,也没有结果。就拿我们人类举例:人类的人格是什么时候产生的呢?海马体是记忆形成非常关键的脑区。由大量的神经元构成,人类学习和记忆的过程主要通过神经元之间建立连接来实现,人一生的神经元数量从出生开始就在下降。小婴儿出生时脑内有1000亿个神经元,到了某个时期,大脑就会进行自发的突触修剪活动,不常用到的神经元连接就会被大量修剪掉,而储存在这其中的记忆,也会随之消失不见。保留下来的神经元就成为以后信息处理单元,从而实现情景记忆的编码、存储、提取。
经过加工的信息就会成为人类参考的行为依据,产生思维方式和行为逻辑,从而让人类在进行各种活动的时候依图索骥,人格随着逻辑的不断完善和更新,逐渐形成。”
花想容一边诉说,一边在纸上勾画简单的逻辑图形。让大家有更直观的感觉。
“但是这个现象不是绝对的,很多2-4岁的孩子并没有接触过大量信息,却能表现出来独特的行为模式,即已经拥有固定的人格,按照科学理论,
他没有得到数据,怎么可能产生行为,就跟我们编程一样,我不给你输入数据和命令,你为什么知道做什么?也就是说我们人类并不确定,人格是怎么形成的,什么时候形成的。有句话是这么说的,今天的你和昨天的你是一个人吗?”
“但是有一点是明确的,就是所有健康的孩子,在接受了大量的知识和行为模式的教导后,会按照,学到的东西去学习和生活。我们不确定的是,孩子会按照哪种逻辑去行动。大家都知道,一个孩子从小到大,大家都悉心培养,爱护,希望能成长成我们希望的模样,但是事实上,这不是现实,儿大不由娘,老话就有,孩子有自己的想法,有可能,甚至与我们教授的东西,和灌输的思维模式大相径庭。