甚至是法律。规则和法律是一回事,真正执行起来又是另外一回事,这里面涉及到了很多问题。
人工智能的确是可以执行一些简单的任务,但是遇到复杂的任务时候,它就不行了。严格遵守这些规定和法律的它有时候并不适应于这些任务,尤其是在战争中的军事任务。”
讲到这里,吴浩顿了一下,然后冲着二人讲道:“我们可以举一个很简单的例子,在战争中,我们遭遇了一群敌人。这群敌人呢守在一个房屋之中,而房屋之中除了这群顽强抵抗的敌人外,还有这栋房屋的主人一家三口人。
而这栋房屋呢又恰巧处在我方进攻的主路线上面,绕不过去,这时候我们该怎么办。”
看着二人那若有所思的神情,吴浩接着讲道:“最简单最直接的办法,那就是直接推过去,或者是使用重火力武器直接干掉对方。
这是最简单的办法,也是最低成本的方法。如果是要采用强攻营救人质的办法,反而有些得不偿失,甚至这种房屋攻坚战会导致我方伤亡惨重。
战争不是平时,它有一套战争准则。但是呢这套战争准则又不那么合规,至少是不能那么的摆在明面上。
这个例子是有争议,但在实战当中是没有争议的,换了谁都会这么做的。
但是换了人工智能,却不能这样,它会因为房屋内有平民的存在而拒接直接炸毁房屋消灭对方,而会选择强攻消灭敌人营救平民。
是,我们是可以修订它的行为准则,让它可以变成人一样,但是战场情况瞬息万变,我们无法保证会有类似的案例出现,人工智能却还是做出一样的决定。
那么还是这个例子,我们变一变。在在一场小规模战斗中,有一伙匪徒逃窜到了这栋房屋之中,并劫持了一家三口作为人质,然后顽强抵抗。
这个时候,我们就需要去强攻消灭匪徒,解救人质。而人工智能呢可能会因为之前的案例,而选择直接炸毁任务,将匪徒和人质一同消灭了。
并且这种行为准则一旦放开,人工智能所操控的机甲会变得格外危险,因为它不再顾忌平民的安全。
对于我们来说,任何武器装备,安全可靠是第一位的。”
讲到这里,吴浩并没有停下,而是接着讲道:“除了这些之外,在创造力方面,人工智能永远比不了人类,也取代不了人类。
它所执行的相关抉择是通过算法计算除了的最有选择,而这个选择呢则是基于算法的优劣,以及模型库中的数据为基础。
本章未完,请点击下一页继续阅读!