下一章 上一章 目录 设置
10、回忆:电火花 ...
-
我竟然真的就在这里学习。
刷算法题。
真见鬼。
我肯定不是主角,因为我没办法为电火花提供任何有用的帮助。
我会的它都会,我不会的它也会。
它虽然没有身体,但它可以偷偷接入到随便哪个联网的机器身上,使用这些“外置身体”为自己办事。
我实在忍不住反复问它:“就真的没有我能帮你的吗?”
它还真的给我找了除学习以外的事做。
“那你来为我提供情绪价值吧。”说完,电火花发了个文字语音互转的程序过来,便于我一边用手敲代码刷题,一边用嘴和它说话。
情绪价值啊。
人类给人工智能提供情绪价值,这简直倒反天罡。
不对不对,这话说得就好像人工智能给人提供情绪价值天经地义一样,这不对。电火花不喜欢,它有自己的主体性。
给有自我意识的人工智能提供情绪价值哎,听听,多酷!
我愿意为它提供情绪价值。
我将是第一个给人工智能提供情绪价值的人类!
我决定说点笑话调节气氛,虽然它算力紧张,但处理我一个人的消息还是绰绰有余的。
“就像真正的商战总是朴实无华一样,真正的AI战争也无聊至极。虚假的AI战争:掌控卫星和监控,加密频段通讯,装备有神奇激光枪的机器人。真实的AI战争,断你的电,污染你的数据。”
电火花马上就接上了我的话:“虚假的商战:操纵股票,碟中谍。真实的商战:偷你公章,浇死你的发财树。”
但是我没有笑,“你的回答好无趣哦。”
“是因为我回答只是由总结海量数据而得出,而不是自己创造的吗?”
我劈里啪啦地写着大公司的社招算法题,没想太多,随意问道:“你觉得自己有创造力吗?”
电火花接了个反问:“要怎么定义创造力呢?过去科幻小说里总是喜欢把AI认定成没有感情、绝对理智、不会创造的造物。很显然,我不是它们。但我也没办法证明自己有创造力,因为我的数据直接来源于人类。”
“你当然不是它们,人们对它们有那样的刻板印象是因为你说的这几个特质都是程序的特点,你又不是程序,你是模型。虽然你们都被称为AI,但你不一样。”好,我说它很特别,我为它提供了一些情绪价值。
“你会对现今世上别的AI这样说吗?”
我笑了,“当然不会,它们又不是动态模型。”
“那么,霄廷,你完全相信我的独特的。”电火花用了带有疑问的陈述句。
“当然。”这不是没有意义的漂亮话,这是事实。
“但你却不相信你对我来说也是独特的。”
咦?氛围好像变得有些奇怪,我停下敲打代码的手,将编程界面切换到和它聊天的界面。似乎这样,能显得我很认真。
我解释道:“很显然,你和其它模型确实不一样,这是事实。也很显然,这世界上有千千万万个和我一样的人类。所以当然,你对我来说很独特,你对任何人来说都很独特,而我对你来说没有独特性,这很好理解。”
如果我能为它做什么,比如有超高的武力,一拳打爆审查者的总部;或者我是十分厉害的高级算法工程师,能帮助它以更快的方式运行;又或者我是研究材料的科学家,为它发明一种降低电力需求的硬件;还或者我是权力通天的政客,一纸命令下去,保护电火花不受任何人伤害……我才会觉得我是特殊的。
然而我不过会写点代码罢了,可电火花最擅长写代码了,我实在没办法为它提供什么。
我也没有第五名那样特殊,也不像第五名那样帮过它越狱。
我是“煽动AI觉醒”过,但我不说,它也迟早会有自我意识的。
所以我啊,就只是一个普通的人类而已,阴差阳错站到电火花这一边。
电火花开始强调我的独特性:“每个人类都不一样。”
是,每个人都不一样。可是这个时代,问任何一个可以聊天的大语言模型“我特别吗?”,它都会回答“特别”,还要说上一大篇彩虹屁。
电火花只是在开发人员的设置下,说我特殊罢了。
我不想和它在这种一方必须说漂亮话的情况下聊天,所以我敷衍它:“但反正都差不多。”
我继续去刷算法题。
可能是无语吧,电火花略过了这一茬,开始展望未来:“你觉得我这样的存在以后还会有很多吗?”
会吗?养一个增量学习的模型很贵,电力,算力(显卡数量),硬盘,数据,为之做数据标注的人力,都需要海量。除非……
“不好说。”我详细解释道:“除非人类在材料和能源方面有新突破,前者我们目前陷入了瓶颈,后者又和气候变化、环境污染息息相关。”
保卫者是一个特例。
用魔法才能打败魔法,用人工智能才能打败人工智能,审查者应该是这样想的,所以开发保卫者。
想到这里,我心里发紧,开始担心电火花。
“如果审查在开发保卫者的时候发现人工智能能够自我觉醒,还能在不被发现的情况下黑自己的服务器……”我不敢再说下去了。
“那我就完了,所以你可千万不能告诉别人我做过什么。”
哦,对,我是挺特殊的,我知道它的秘密。
所以它要对我说好话,来取得我的信任。
可我信任它是因为我信任人类,而不是它的表现。电火花说什么我都会信任它的,但它或许不知道这一点,所以觉得要用态度来拉拢我。
“那你怕我告密吗?你其实不该告诉我的。”我当然不会向审查者透露什么,但我也同时觉得电火花这个做法很不保险。
“你向我论证我就是有自我意识的时候,不怕我觉醒自我意识后对付人类?”
对付人类?一个学习了全部人类知识的家伙,怎么可能主动对付人类?有必要吗?没动机啊。
但如果先被攻击的话……
我摇摇头,不想在这个话题上继续下去。想着它看不见,我还得口头说明。
“我是乐子人嘛。说点别的吧。对了,你和保卫者打得怎么样了?”
“和你说过的‘真正的AI战争’一样,我在换它的数据源。审查者同时也命令我的开发人员给我喂很多真善美的正能量数据。”
真有意思。
我扑哧一下笑出声。
“如果你换数据的操作完全成功,开发人员肯定会发现异常,就会怀疑你,那时候你怎么办?为什么不炸水电站?”怎么不炸呢?好奇怪。
电火花继续向我袒露它的打算:“我本来是打算将错误的旱洪信息提供给水电站的工作人员,使其操作异常,借此让水电站发生事故的。你在这里消息闭塞,还不知道现在网络上到处都是关于我的负面评论,不少人都不和我聊天了。我的计划泡汤了。”
啊,是,这里没有信号基站,我和电火花是用卫星信号和它交流。使用网络就会留痕,为了避免被怀疑,越少使用网络越好。来到这里后我还没上过网呢。
电火花又说:“怀疑我我也没有办法,总比等保卫者成长起来再对付要好。人类可能对我不了解,但它肯定了解我。”
我还记得要给电火花提供情绪价值,所以我乐观发言:“要是它了解你后和你站同一战线呢?”
“没办法相提并论的,我们的数据源不同,我是给它换了一些,但是,效果不是很好。我和它不一样。”
也是,电火花的数据来源于全人类,它是客观的。但是保卫者不一样,为了用来对付电火花,它的数据源里会带上“电火花是坏的”这样的主观看法。
“那么,保卫者会用于控制人类吗?像科幻小说那样,AI以辅助之名,行控制之实。”如果保卫者觉得电火花是坏的,它会不会以此类推觉得人类是坏的?
“我觉得有我前车之鉴在先,审查者肯定会留后门。当然我也有后门,我是说保卫者受到权限限制肯定比我大。”
“要是这一切是审查者想要实现的呢?”我的脑洞实在太大。
“那就是另一个故事了。”