第105章 我花开后百花杀!机械公敌(3 / 10)

“符合某个时代的人,对‘未来’的幻想。”

“幻想中,人工智能应该有这些定律、逻辑,这样它们就不能伤害人类了。”

“可实际上,没有经历过,只是幻想出来的,有漏洞太正常了。”

“就跟游戏一样,内部测试的好好的,一旦公测,BUG满天飞。”

“别说是三大定律,就算有人发现这其中的问题,再加上所谓的第零定律都没用。”

“第零定律?那是什么?”

王长志更好奇,也更懵了。

暗道牛逼!

老大不愧是老大。

当全世界都在喝彩,认为机器人牛逼、三大定律无敌的时候,老大都已经研究出第零定律来了,甚至第零定律都入不了他的眼?!

“简单来说,第零定律就是人工智必须保护人类整体。”

“啊?”

“这···这从宏观角度来说没问题吧,这都还能出问题?”王长志不解。

“当然。”

“举个简单的例子,如果局部出现战争,死伤不少,机器人怎么办?”

“啊这···?”

王长志愣住,不知道该怎么回答。

“有很多种可能。”

陆川给出自己的分析结果:“其中一种是:我们必须保护人类个体和整体,但他们自相残杀,这太危险了,所以必须把他们保护起来。”

“不让他们打仗!”

“尤其是再一结合人类的历史,大大小小的战争,杀了无数人···”

“为了第零法则,我们机器人必须~~~”

“我靠、我靠、我靠!!!”

王长志彻底麻了。

“必须后面是个填空题,我都能想到很多种答案啊!”

“一:把人类分别、单独圈养起来!从‘字面’上来说,这样不会伤害人类。”

“二:把要所谓的危险分子全部弄死,这是为了保护人类整体的利益···符合第零法则?!”

“三:···”

一连串的填空之后,王长志完全死心,甚至感到无比后怕。

“那我们岂不是永远都不能把人工智能搞出来,不然人类迟早玩儿完?”

“那倒未必。”

陆川倒也没藏着。

“其中的限制逻辑必须要足够完善。”

“而且必须加上最底层逻辑限制:人工智能不能以自主意识干涉人类个体、整体与世界的发展和走向!”

“这就相当于,把人工智能限定死了。”

“人工智能可以自我发展、升级,但你再升级,都不能干涉我们人类的事儿,让人工智能永远都是‘听话的工具’。”

“它们可以有自我意识、可以不但反思,但你却不能以自主意识来对人类、世界有任何干涉,除非有主人的命令。”

“这?!”

王长志发现问题所在:“那主人命令人工智能干涉怎么办?”

“这又涉及到另外一套逻辑了。”

“所以严格来说,人工智能可以出现。”

“但却不能出现在坏人手中,不然···”

“如果没有好的反制手段,整个世界都要玩儿完。”

“妈耶!”

“吓人,吓人!”

王长志表示浑身都起了鸡皮疙瘩。

“别慌,其实也没必要这么担心,我还没仔细了解,但我觉得那个爱丽丝大概率是假人工智能,仍然是靠喂数据假装而已。”

“不过现在既然知道了,我会仔细了解一下。”

“如果是假的,稍微小心一些就行。”