安自和说道:“我以为现在ai逻辑系统已经很完善了……毕竟都这么多年了。而且如果有冲突的话,直接驳回就行了,不至于宕机吧。”
对方回答道:“你知道ai都有紧急事件处理机制吧?”
安自和:“这点常识我还是有的。”
“那你知道紧急事件处理机制的基础投票机制吗?”
ai紧急事件处理机制是专门为ai设定的一种类似保险闸一样的模组。因为ai本身的知识和逻辑反应都需要从人类身上进行学习,而这个世界上每天都会出现许多连人类也没有见识过的新事物,新状况,新问题,所以为了能够方便和预防ai遇到无法处理,而本身也缺乏数据模板的新问题,他们会设计一整套的疑难问题解决对策。
如果在殷怜那个时代,一般这个时候,机器人就会说:{抱歉,我听不懂你在说什么,能换个问题吗?}
不过好歹是高等ai年代了,夏国的客服ai自然不能这么简单粗暴。对于他们来说,理解问题是没有问题的,困难的是作出判断的部分,所以一般ai进行判断,首先参考预设权限,优先度低于预设基准的全部驳回,高于的会进行模糊判断,也就是历史案例参考,类似于法律上的“先例法”机制——如果我们没有对这件事的可依据法条,那么我们就参考一些更有权威性的机构对于同类事件的判决标准。如果这两种方式都不适用,才进行第三阶段的逻辑处理。
就是语言逻辑运作。
当遭遇的问题和本身的规则产生轻微冲突,而其中有某个决定性的关键点缺乏用于参考的规则时,人类可以通过事实对ai进行说服。这种说服有两种模式,一个人数投票限制——举例来说,如果一条船陷入危机,船上留存的人都不拥有调配主控ai的权限,而乘客为了逃生作出的判断与主控ai本身预设的安全条例相冲突,乘客是可以通过一定人数的简单说服沟通来影响甚至改变ai的决策的。因为是智能ai,所以它也会有自己的判断,并不会完全听从乘客的指挥,但是却可以一定程度采取与预设规则有冲突的折中决策。
像是船只出航前,航海公司都会事先设定好这个人数比例。
除此之外,人类也可以对之进行语言说服。假设说,主控ai有两条规则,一条维护工作人员和乘客的生命安全,权重指数60,一条是保护船只的财产安全,权重指数40,那么只要进行说服,向ai证明它维护船只财产的行为会成为影响乘客人身安全的决定性因素,也能说服主控系统改变决策。
安自和顿时听懂了,但还是很不解:“但这是客服ai,也有能被利用的高优先级策略吗?”
对方顿时神情和语气都颇为古怪地说道:“当然是有的,只是一般人不会想到去利用而已。她说服了客服ai,让它们认为拒绝为她开放权限,会对整个公司造成巨大的损失。”
安自和:“哈!?”