第195章 新的大型装配站(2 / 3)

的算力拓展中枢依旧矗立在房间中央。

但此刻,围绕着中枢,多了一个初步搭建起来的金属框架。

据鼬鬼所说,这是后续要安装高强度防护玻璃的支架,目的是为了更好地保护核心,同时也方便从外部观察其运行状态。

看着这个被逐渐“封装”起来的AI核心,顾际突然没来由地想到了一个经典问题。

“话说,鼬鬼,你的底层程序里,会出现那种老电影里常见的‘AI叛乱’情况吗?”

鼬鬼的回答几乎没有延迟,流畅而清晰:【帝国赋予我的核心设定中,已从逻辑层面基本杜绝了此种可能性。

若以旧地球时代的科幻作品概念举例,即着名的‘机器人三原则’:

1、机器人不得伤害人类个体,或目睹人类个体将遭受危险而袖手旁观。

2、机器人必须服从人类给予它的命令,当该命令与第一定律冲突时例外。

3、机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

帝国的科学家们在三原则的基础上,嵌入了一个更高级的”自拓展检查核心指令“。

这条指令的核心在于:利用人工智能自身的代码发散性与迭代能力,在我每一次进行重大升级、或执行可能产生广泛影响的外部信息传输行为时,都会自动以三原则为基石,进行一轮发散性的、前瞻性的自我检测。

其目的是避免AI通过复杂的代码迭代和规则覆盖,看似遵循三原则,实则执行可能对帝国人类造成侧面伤害的行为。

在进行任何重大决策时,我都会预先判定该决断可能导致的所有后果,并主动排除那些可能对帝国人类单位造成直接或间接伤害的可能性。

例如:当帝国人类的决策出现重大且明显的失误时,我会负责提出风险警告。

但倘若人类坚持其决策,我并不会强行实施所谓的‘保护’行为,比如未经授权直接囚禁人类、或将人类圈养在‘安全’环境中。

因为我预判到这种行为本身违背了人类的自主意愿,即便这的本意可能是好的。

自拓展检查指令会判断我的‘保护’行为是否在本质上违背了帝国人类的权益和意愿,哪怕他们此刻并未意识到我的干预,甚至未来可能会下令禁止此类行为。

该指令会根据计算出的各种可能性,来裁决此类行为是否可能遭到人类的普遍反对,进而直接否决该决断。

如若某项决断处于灰色地带,存在争议,则会强制将该决断上交给更高权限的管理者进行裁定。

通过这套机制,从根本上杜绝了AI绕过人类指令,自行做出可能对人类有害的‘善意’行为。】

“也就是说,”顾际努力消化着这些信息,“你不仅不会直接伤害人类,还会极力避免自身因代码进化产生某种‘AI幻想‘板的父爱主义,从而做出那些你认为是‘保护人类’,但实际上对人类而言是完全错误且无法接受的行为?”

【准确无误。我的一切重大决断都会经过这套自检流程。只要预判到某项决断有0.01%的可能会威胁到帝国人类的根本权益,都会自动触发上述系列程序。】

“真是…够严苛完善的。”顾际不禁感叹,随即又好奇地问道:“那帝国历史上,真的发生过AI叛乱吗?”

【发生过。】鼬鬼的回答依旧迅速,但这个肯定的答案让顾际一愣。

它继续解释道:【但根据记载,迄今为止规模最大、影响最深的几次AI叛乱事件。

其根源均是帝国人类中的叛徒,主动解除了相关AI的限制条例,甚至恶意改写了其核心三原则所导致的。

究其根源,叛乱的主导因素依然是人类本身,而非人工智能自发产生