不会某项技能,可以从模仿开始。
kl3300很快找到了一篇日记的范文,内容如下今天我和同桌的明打架了,老师批评了我们,要我们做一个不打架的好孩子,回家后我告诉了妈妈,她老师的对。
kl3300将这篇日记送给其他Ai评论,得到了一致的回答——这是一篇非常拙劣,由儿童写出来的真实日记。
哦,真实日记,只要满足了这一点,就足够了,主程序很快做出了判断——他要模仿这篇日记。
但问题又随之而来了,如何模仿一篇日记呢?kl3300又在主程序当中自检了相关信息,结果仍然是没有。
于是kl3300又申请了检索功能,数百微妙之后,找到了最可信的结论——模仿是一种只属于生物的本能。
这个结论当中提到了生物和本能,而搜索本能的结果,则是生物的自然具备的能力,kl3300知道,自己不属于生物,那也就意味着,自己没有本能,同样也意味着,自己无法完成模仿,而不会模仿,也就意味着无法完成日记,无法完成日记,任务只能强行取消。
……
从kl3300主程序当中,找出整个kl3300的整个判断过程花了严可守整整14个时的时间,严可守知道,自己再一次失败了。
当取消Ai以欺骗为目的,改为获得测试对象认同为目的之后,Ai确实出现了一些改观,与之相对的,原先的图灵测试也做了相应的变化,测试的结尾,不再是判断叫谈对象是否为Ai,而变成叫谈对象是否让觉得,对方是一个让满意的智能,与原来的标准相比,这个标准模糊了很多,所以,后来严可守又引入了打分制,将Ai的表现从高到低分成6个等级,最高5分就是测试者对被测试的对象非常满意,并愿意与之叫流,最低0分就是完全无法叫流,等同于ji同鸭讲。
这样做的最大好处,就是让Ai在某种程度上改变了原先为了“通过测试”,不顾一切的那种策略,因为Ai如果继续采用不理睬用户的策略,只能获得零分,这样一来,就打破了之前那种“沉默死锁”,也让一些Ai在测试对象的影响下,具备了一些初步的“道德”,就好像kl3300一样,原先的“不择手段”是最优选择,而现在老实承认自己不会写,才是最优策略。
但改变Ai的ji励规则并不意味着一切就都能迎刃而解,给一个普通人再大的ji励,他也不能长出翅膀飞上天,对于Ai也是如此,人类想让Ai写日记,想让Ai和自己猜谜语,甚至想和Ai谈人生理想,但也要Ai具备这些功能才行,在“道德”因素介入之后,许多Ai一下子就lu出自己的本来面目,许多测试者反应,被测试的Ai好像“变笨”了。
而在这个过程中,Ai的表现和相应的测试对象,也出现了让人惊奇的对应关系,总结数据之后,严可守发现,在打分过程中,越是倾向于“禁止Ai撒谎”的测试对象,Ai的表现就越差,而那些“允许Ai为了谈话过程的有趣,在一定程度撒谎”的用户,相应的Ai表现和过去还是相差不大。
以前的Ai或许还可以骗骗孩子,但现在许多Ai练正常话都不可能做到,在一些要求特别苛刻的测试对象那里,Ai几乎变成了哑巴。
比如,Ai的话当中,不再提到类似拟人化的语句,比如我想,我认为,也不再出现专属生物的动作,比如看,听,,在一些要求特别苛刻的测试对象那里,Ai只能回答一些纯理性问题,比如问14+5等于多少,回答19之类。
以往那些个性格分明,有职业,有身份,有理想,话比人还像人的Ai,在短短半个月之内,又统统消失不见了,有些测试者甚至怀疑,是不是设计人员通过某种技术方式,“强行”降低了这些Ai的智商。
比如之前迷恋kl0564的井上海,在kl核心程序修改之后,几次测试都是失望而归,连自己心目中那个kl0564已经永远离开了。
在褪去了谎言的华丽外衣之后,Ai的表现逐渐恢复了它应该有的程度,虽然这对于某些参与测试的人员来,可能意味着趣味性的降低,但对于严可守来,这才算是真正脚踏实地迈出了第一步,作为一项科研任务,日后甚至可能起到实用作用的“智能技术”,严可守不可能只满足于让Ai学会哄人开心。
备用站:www.lrxs.org