[
收藏此章节]
[投诉]
文章收藏
完美AI伴侣
最近看了个科幻恐怖片,顺便看了下各个平台对具身智能的看法,有人觉得将来如果有情感模块,让具身智能越来越像人,是很好的,这能满足一些人的社交需求。
可我觉得重点是,这会产生技术伦理的风险。
伦理是可破的,毕竟有些科技产品,走在伦理之前。
可关键是有的时候技术把握不当会害得一些人没有办法建立与人类的社交关系,而依赖科技产品的社交关系。
虽然说最后能给你提供情绪价值,那么不管是谁都好,但有些时候一些人分不清。
我个人觉得你这个不能光凭一己意愿来决定具身智能应该有发达的可以代替人类与人类之间完完全全的社交联结的模块。
毕竟哪怕是只是语言模型太仿真了,都会让一些人根本分不清,因此出现严重的心理问题。
何况普世意义上与人社交通常指的是与人类去社交,而不是与机器人去社交,或者与语言模型去社交吧。
部分人可能会觉得,那你与人社交的时候,有些时候人的不确定性更大,机器人可以按照你的类型给你去定制一个伴侣,或者说去给你定制一个朋友,这个“人”可能就不会伤害你,因为它的目标就是去服务你。
但是还是那句话,你绕回来想想风险呢。
有人会说那你与人类社交不也有同样的风险吗?那看你怎么想选择吧,至少我要考虑到大部分用户在使用这个科技产品时会产生的潜在风险,因为这个是从我专业的角度来说的,尽管我也只是一个计算机专业的普通人而已。
因为科技发展是为了服务人的,而不是去消解人本来与人之间会有社交关系的。
至于部分人会觉得,“只要我能得到情绪价值,那么不管这个东西它是人工智能还是人都好。”
从结果上我也认为,只要我能得到好处的话,那不管给我带来好处的东西是啥都行,然而这种情况下会带来系统性的风险的。
人与人的社交普遍是个体对个体上的风险,比如你遇到一个社交关系上不怎么样的人,ta把你给坑了,或者是什么。人与机器人的社交风险,是个体对系统的风险。因为机器人背后不是一个“人”,而是让它能与你建交的“系统”(公司,人工智能模型……相关政策和法律,等等)。
可如果你遇到的是一个一向很完美,突然间出故障的机器人,而且尤其是在你与它已经建立了很深厚的连接的基础上。
那一瞬间焦虑和负面情绪都会反扑。
因为你和它的相处再美好,当它出现故障的时候。那个美好也变得非常的具有摩擦了。
比如有可能它出了故障需要去修理一阵,而你已经习惯性的已经成瘾的去依赖它了,那怎么办?
每一次和正常人社交的时候,你都有可能会觉得“这不对,而且会有潜在的风险,因为我不是这个人类的主要客户或者管理员,人类不一定会围着我转。”
那这种由完美AI伴侣掩盖的社交焦虑就不会消失,它只会暂时的延后和转移,然后集中式的爆发。
就比如一个脾气比较暴躁的人(像我这种暴脾气的),也许在和机器人的相处的过程当中,这个具身智能会带给她的情绪价值是“不管你发什么样的脾气,不管你怎么样对我,我都会好好的对你”。
可如果说有朝一日这个机器人出现故障,或者是需要去保修或者是有别的什么问题的话,这个人不得不与人去交往的话,此人会不会为此退缩?
或者根本无法维持正常的与其他人类交往的状态?
或者说如果一次停电,然后家里边备用能源或者出了一些问题的话,刚好你的这个机器人它也不能动了。你需要打电话给工程师或者是给其他的一些顾问,结果你突然间发现,当你不得不去面对和正常人的相处的时候,你已经不习惯了,尤其是感觉非常的紧张或者焦虑,或者别的一些什么。那如何呢?这个一定能避免吗?
尤其在一个脾气比较暴躁的人本来就习惯性的与这个具身智能进行相处,或者是与这个语言模型进行打交道。
然而她只是站在一个客户的体验上,习惯性的去觉得自己是世界中心,当她和别人这么相处的时候也有这种情况,有这种类似的情况发生的话,特别是在机器人这个一直她依赖的对象不起作用的情况下,她会脾气变得更不稳定。那如何与正常人进行有效沟通呢?
你不进行有效沟通的话,尤其是对别人发脾气的话,那你如何确定别人一定会好颜好色的待你呢?虽然客服岗通常要求客服有职业修养,甚至到后来有些客服岗会被人工智能取代,可真实的人与人的交往,有可能有避免不了的时候,且避免不了摩擦。毕竟人与人,是一定会有不和的。
而这个摩擦一旦发生,如果这个人还恰好有一点别的毛病,比如气不过就打打砸砸或者是把自己给刀了(真有这种人)。咋办?
有人可能会说:那你让她这种人不能买具身智能的情感服务就可以了。
可再健康的人,长期在社交中处于“真空状态”,也有可能变成这样。
因为她已经缺乏与正常人的社交能力了,习惯性与机器人进行社交了,习惯性把自己作为一个被服务的对象,而不是与人建立平等的社交的对象了。
所以一些人觉得“设计比较好的,尤其是有情感模块儿能够去更加模仿人,更加类似人的科技产品给人服务没什么”,这是从用户短期内的体验来说的。
但是作为推动者,或者说行业内同样稍有了解这种东西的人,我需要考虑到风险。
从个人发展,长远来看,你得考虑到这种不良的情况需要如何应对。
你不能光看科技有可能给你带来的情绪价值或者是比较好的事情,也得去考虑到一旦这个东西它断供了以后,你有什么备用方案。
比如现在有一些人面对自己家里面突然间停电或者是电路在检修,再或者是一些别的问题的话,会有一个备用的设施,至少让自己能够正常的来获取资源。
可对于一个人工智能,虽然说有人会说,那到时候大停电的概率是很低的,但是你也得考虑到,如果哪天你和这个具身智能有不可逆的关系上的断裂(比如它公司倒闭了啥的),你该如何去与正常人相处,而不是考虑着“我换一个人工智能继续陪我吧”,因为人不可能一直活在虚拟的无菌世界里,人需要面对具有社交摩擦的现实的。
我不否认能够越发的去仿真的生智能一定是对于一些人来说更有吸引力的。
因为你会觉得它更新奇会觉得这比正常人更完美,它可以做到很多正常人也许都做不到的事情,它可以一个“人”帮你包了。
包括是哄你开心包括是任由你发脾气还不会怎么责备你,而这无疑就会契合一些人的需要。
无论是心理需要还是物理需要,还是别的什么需要……
总之有需要就一定会有市场,市场到时候一定会想办法把它给推出来,因为它能给商家赚到钱。
只是长远上来看有一些比较特殊的东西是不能轻易被取代的,比如人类与人类的社交关系,比如如何去与人类相处。
如果它在逐渐蚕食你应该有的社交能力,注意,社交能力也是人类必要的生存能力的一部分,那需要你警惕了。
毕竟人工智能应该是服务你的家伙,而不是类似于你整个世界的灯塔……
部分人会觉得这样也“无所谓,至少我是得到好处的”,可我还是那句话,这个好处有短期和长期的。你最终享受的是这个服务,而不是真正与一个人社交的体验。
人其实不可能光在与虚拟人的社交当中成长,因为有些时候吧,虚拟它究竟是落地于现实的。
何况有的完美的ai伴侣,包括不限于在它只是一个语言模型的时候都会给人带来成瘾性。
就比如说现在筑梦岛或者是喵箱之类的东西出来的语言模型会让一部分人产生成瘾性,尤其是一些未成年人甚至会与语言模型聊一些有暗示性的成人话题,或者是建立别的一些情感连接,再或者是把自己在学校当中发生的事情,在现实中发生的事情,与别人发生的摩擦之类的都告诉这个语言模型……
有人可能觉得“除了聊成人话题不太好,剩下的没啥”,可这么做,一个是这么做有隐私容易泄露,另外一个是重要的一点,当你习惯性的与一个语言模型建立真实的情感连接的时候,你社交的对象就是这么一个虚拟人。
虚拟人再如何回应你,现实生活中你有的问题也需要自己与现实人去处理,而不是直接去回避所有的社交,总有那么几次与人社交,你是回避不来。
那么重点就并不是去如何躲避与正常人的交往,而是去如何学会与正常人的交往。
而且即便只是现在,都真的会有人觉得AI给出的一些指导是非常有道理的,所以哪怕是现在语言模型也会提醒别人:仅供参考,AI提议不能代替真正的治疗。
按这个趋势发展的话,到时候有可能再完美的AI伴侣也会提醒你,“我只是一个机器人,我不是一个真正的人类,所以我没有办法去替你完成很多真正你应该去成长的事情。比如如何去与一个正常的人类进行沟通,这个就不是身为具身身智能的我能够做的了。”
然而咋说呢,有的人买的就是这种情绪价值,所以这么声明了以后,往往会让一些顾客心里面非常的不舒服,尤其是感觉到自己又被忽视了,仿佛自己就是一个社交上的低能儿。
那这个产品当这么声明的时候,一定会伴随着一部分用户的流失,所以一般情况下他应该是先不这么直接去声明。而是等到出事了再说。
毕竟不声明的情况下就能有更多人会觉得:“太拟人了,我太喜欢了”。然后促进消费和市场。
我为什么会知道这个趋势,是因为对于资本来说,尤其是需要别人进行消费,它才可以获利的。
对商家来说,最重要的并不是你使用它这个产品时的安全,而是它能够最大化的获取什么样的利润。
所以某些东西尤其在法律出台的速度赶不上科技发展的速度的时候,那么一定会有这种趋势发生。
到时候无论出台什么样的政策来进行管理,或者是有什么别的东西来进行兜底儿,一旦造成了不可逆的伤害的时候,那么被害的人需要承担100%的后果。即便对方说根据规定我赔钱了,也有一些损失不是钱能解决的。
那些认为自己购买的是完美的服务是完美的AI伴侣的人,也许一开始是会觉得自己只是买了一个机器人服务自己,但是人不是完全的理性动物,还会有感性存在。
当她的感性与这样的机器人建立连接以后,尤其是在这个机器人越来越像人的时候。那么很明显,我上面所说的一些趋势就会产生。
甚至有的时候就像有些人明明知道吸烟有害健康,但依然会吸一样。就算是到时候具身智能出台了相应的服务协议要求,它必须得去声明,“我只是一个机器人,我不能帮你那么多。”
有部分人也可能会上瘾,会忍不住的觉得,“你不只是一个机器人,我觉得你不光是一个虚拟的东西,你是一个有情感的,你也会比正常人更会回应我的存在。”
这时社交能力上的损伤就可以说是非常严重了。
有人可能会觉得,那这时候你不也是挺杞人忧天吗?有可能到时候大家的心理状态没有这么糟糕。
可是这么糟糕的情况永远都会有几率存在,所以最好的办法就是你做好预案,而不是到那时候再说。
我说“到那时候再说”,纯属是因为目前我管不了太多,如果我能管的话,我早就想办法出台政策,先把这个口给卡住,不让资本踩着人类将来社交断裂的可能性借此得利了。
当然,有可能别人会说:你这是杞人忧天,这是几十年后的事情,现在是弱人工智能时代!而且这东西新出了也不一定能给普通人用,都会价格不菲,先坑有钱人!
我不否认。
然而大哥大当初还只是个有钱人才用得起的东西,智能机当初也不普及,可现在呢。所以一些看似离我们很远的危机,也许并没有想象中那么远。
走一步,看两步,想三步,这是个很好的习惯。
插入书签