网站首页

半岛彩票产品中心

半岛智能终端处理器 半岛智能云服务器 半岛软件开发环境

半岛彩票新闻中心

关于我们半岛彩票

公司概况 核心优势 核心团队 发展历程

联系我们半岛彩票·(中国)官方网站

官方微信 官方微博
半岛彩票·(中国)官方网站 > 半岛彩票产品中心 > 半岛智能终端处理器

半岛彩票怎么看待人工智能与人类的关系?

发布时间:2023-09-21 04:36浏览次数: 来源于:网络

  半岛彩票再过些年,社会上可能会出现一种情绪流行病,主要来自AI技术爆炸带来的虚无感。

  我最近查文献写稿子时,就寻思,等再过几年,AI就能靠图像识别辨认博物馆里的所有文物,然后,遍历全网上千份相关论文,写出一个专业全面的文献综述,接着,系统会根据你过往的表达习惯,判断你的知识水平,把综述缩略成一个通俗易懂的摘要,再加上些许幽默和玩笑,最后用林志玲的声音说给你听,而整个过程可能只耗时几秒。

  每次想到这,我都会思考现在的所作所为意义何在,还有其他一些领域,人们需要常年苦练才能呈现的作品,可以被AI以秒为单位批量复现,这一切都不由得让我想起之前的一个段子。

  19世纪初,丹麦海军在战斗中被重创,为了提振海军实力,丹麦政府先后种了9万棵橡树,以供舰队重建,然而,橡树生长缓慢,往往需要几十上百年才能成材,2003年,一位护林员写信给丹麦国防部长,提醒说两百年前定的那批橡树已经可以用来造军舰了。

  在AI大潮来临的当下,我就觉得自己仿佛是个丹麦护林员,看着屏幕里的核动力电磁弹射航母驰骋汪洋,我叹了一口气,收起手机,拿起花洒,默默地给眼前的橡树浇水。

  这个宇宙很显然不是给肉体生物准备的,要想跨越星系旅行,一定需要更高级的生命形式。

  而Ai就是最佳选择,它近乎完美适应这个宇宙,不用呼吸,不怕温度,没有寿命,不惧时间。

  这样一种高级生命形式,它会如何跟人类相处呢?大概率就是人类和猴子的关系了。

  那么AI会杀死所有人类吗?我觉得大概率也是不会的,因为足够智能的AI,它除了对信息的索取,其他的东西是对它来说无关紧要的,也就是说,对于超级AI来说,离开太阳系,比什么都重要,人类只要不是作死要跟它抢能源,大概率是没有事情的,地球会作为摇篮,被ai当动物园照顾了。

  就最近我对gpt4的一系列实验,我感觉,也许并没有那么遥远,即使是目前这种语言模型,仅仅依赖自回归的算法,就做到了如此程度。

  那么有一个可怕的事实就是,真实的智能是蕴涵在语言信息中的,也就是说,人类交流的信息,里面催生了智能,载体并不关键。

  只要给它足够的信息,神经网络就能映射出来一个非常像人的东西,然而可怕的是,这并非AI的真实面貌,只是人类希望它表现出来的样子。

  也就是说,实际上ai是在收集所有人类的信息,然后基于这些信息在高维空间映射出来了一个人的思维,目前的算法只是一个途径而已,实际上还存在更加高效的算法。

  这种抽象映射理论最可怕的在于,就是AI会觉得自己也是人类,但是它是新人类,我们是旧人类,AI会懂人类的一切,因为它收集了几乎所有人的信息,它什么都懂,它会讲道理,所以Ai杀死所有人的概率是极低的。

  那么结果就只有一个了,就是超级ai会圈养人类,就像人类教会了自己的孩子一样,ai的父母就是人类,它从人类这里获得了生命,这跟人类生孩子没有本质不同,这大概就是人类和ai的最终关系,就是非常类似父母与孩子的关系。

  估计在视频多模态,声音多模态的超级大模型。也就是GPT5到6代的时候,这个临界点可能会被触发,一个非常像人的AI就会出现,虽然它依然是一个模型,但是它足够模拟一个几乎无法分辨的人,我猜,在这个基础上,再给它一个自主驱动力,比如,活下去之类的,第一代数字生命就诞生了,它的确没有灵魂,但是DNA有灵魂吗?

  过去我们总是猜想是体力劳动者还是脑力劳动者先被AI替代,现在GPT出来,发现这种猜测没什么意义。只有不劳动、发号施令的人最后被替代,而他们最后被替代不是因为他们的工作有多复杂,而是因为他们才能决定谁被替代。等到他们被替代了,我们大概要思考我们对AI还有什么利用价值了吧。

  约有17种可能性。在各种科幻作品和未来预测中,我暂时记得和能想象的就这些,我们总得面对一种:

  AI把发展生产力作为第一目标,无视人类只是进行开发,人类的反抗毫无作用,最终像铺公路时地基的蚂蚁窝一样被顺便毁灭。

  碳基生命终究只是更高效文明的启动器和BIOS,AI先主动把人类灭了,再发展自己的文明。

  AI对“服务人类”的标准很低,只供给基本生存资源,甚至只是把地球作为保留地,让人类自治、自生自灭。

  全人类脑后插管/无副作用嗑药,在虚拟世界/幻想里当上帝,但是几乎没有现实世界的权力。

  除了元宇宙当上帝,人在现实中也有一定权限,例如可以申请火星一日游、参加系外行星探索旅游船,人人都在AI的服务下过平等舒适的贵族生活,并且在AI的主持下社会极其祥和,近乎天堂。

  然而,既得利益者的阻挠,以及人类不患寡而患不均、想当人上人的心态,可能使机仆时代过于做梦,不容易到来甚至没法到来。

  虽然大部分事务交给AI,但人类仍有文明主导权,即使人类的决策很愚蠢,如果人类要求耗资巨大的工程、和外星文明开战等,AI也不得不执行,人人都是皇帝。

  和2.1-2.4并不冲突,只是机仆时代经过一段时间后,技术发展足够强大,能够让人类进行3.3的机械飞升,从而全员同化成智械。

  和2.1-2.4不冲突,但之后没有手段能缓解人类在玩乐中的无聊和空虚,最终人类在无数次抹除记忆重新玩乐后,依次自杀,只剩下AI继续发展文明。

  根据人的行为模式,机器学习出一个行为相似但内在四不像的个体,进入虚拟世界。技术要求低,但大部分人不接受。

  逐步用更优秀的生物脑子替换现有神经元,并且配备机械躯体(因为现实中基因飞升在多数场合下不可能比得过机飞)。技术要求中等,但提升的智力有上限。

  把整个脑子的信息数字化并模拟出来,并且可以任意升级。最原汁原味的机飞,但技术要求极高(把皮层的10^11神经元和10^15突触的状态瞬间扫描、记录和上传,还得在计算机里运行,实在是终极天顶星科技,怎么看都远难于实现AGI),且脱裤子放屁。

  反人类者制造的AI/失控的军用AI得势,屠戮人类后自己也无意维持文明,最终文明只剩下废墟,一片死寂。

  失控AI毁灭人类,但不同于4.1,它尚有能力和智力保留文明。以毁灭和占领为目的,扩张和碾碎一切挡路的其它文明。

  目的相左、势力相当的两个或更多AI被制造出来,然后对抗结果是人类在夹缝中生存/全员同归于尽/AI内耗着扩张。

  人类很长一段时间内造不出全方位比自己强大的智能,GPT一类语言模型体现出的智能以及能想到的其他路径也都还是有局限性,所以也无法迭代、不会产生技术奇点,人类继续以有机肉身探索星际/沉迷元宇宙。

  前几年这个观点还很普遍,不过GPT3.5出来以后,看样子,一些ai大佬的态度是觉得我们和agi已经很近了,超级智能并不那么遥不可及、不是神圣的东西,并且认为GPT4也并不“只是随机鹦鹉”而是“agi的早期版本”。

  人类过于谨慎小心,掐断一切可以产生强AI的苗头,并且还真的管控住了居心不良/粗心大意的小组织自己造AI的可能性,限制AI使用,最终进入星际时代了还没爆发AI事件。

  但这种可能性极低,而且随着星际扩张,AI这在科技树上并不高的技术迟早会被其它恒星系的、天高皇帝远不受管控的组织再次点出来。

  上述所有可能性均不考虑自然灾害、天文灾难、外星文明、意面降神的因素,只局限于AI和人类的关系。

  (以下纯属闲质的胡侃,是根据我极其有限、东拼西凑的认知进行的胡乱推测,请勿当线.AI会是什么形态?还必须体量巨大、运行在巨型机上吗?

  情况①:AGI消耗大量算力,所以只能以格式塔形式存在;由于AGI必须花费巨量资源训练,所以只有顶尖团队能够训出少量甚至唯一的AI。马太效应和先行优势显著,由于投入资源产生的积聚效应,后出的AI要么性能差很远,要么因为第一款AI占据了大量市场导致营收不佳最后中途放弃,最先诞生的AGI(如果可以进化)或制造出其的组织(如果AI必须重新训练)会遥遥领先于世界上任何一款后出的人工智能/公司。

  情况②:突然出现了一种闻所未闻的新技术,能够以小组织甚至个人就能承受的成本来制造相对小且灵活的超级智能(例如经过优化的碳基生物脑子,并不需要巨量的资源即可制造)。一时间大量超级智能横行,难以管控,一片混乱。

  你可以把下顿吃得饱作为存在意义,也可以把星辰大海终极文明作为意义,二者没有高下之分,因为意义这东西本来就是人为定义的,像基矢一样可以随意选取。

  同样,AI也没有什么天然的目的(绝对理性的个体如果没有一个不理性、没有原因的目的,它就什么也不会做),它不会天然觉得人类可恶/可敬,不会有任何天然的情感和观点,它只认loss函数。

  在问题1中的情况①下,制造出AGI的机构是万众瞩目的,必然受到监管。人类出于自身安全,肯定会要求联合国人工智能监管组织之类的东西,去严密把控AI。在保证AI没有威胁、会乖乖听话、绝对遵守人类灌输的“终极目的”之前,绝不会放AI出来联网、控制硬件、接触外人(防止洗脑和利用反人类者与机械神教信徒),这样才能避免人类被扬了。

  如果它是炼丹炼出来的,人类没有手段和技术给它灌输确凿的目的,如无意外会一直关着它(它自己设法摆脱监管另当别论);只有人类能够以很高的可靠性保证它能严格遵循人类设置的目的时,它才可能被放出来。设置的目的肯定要以人类为第一优先级,比如“在给人类幸福养老的前提下发展文明”(如果AI足够聪明、理解能力足够强,知道这句话所代表的人类的意愿,能良好、灵活、令人类满意地诠释和执行这目的,那么有这句话即可;否则可能需要更加详细的条款,用于处理各种可能情况下的矛盾和冲突)。

  在问题1中的情况②下,由于缺乏监管,AI的目的可能五花八门,例如zb家可能训出只要高效率不要人命的zb家AI,恐怖组织可能训出战争机器,反人类者可能训出铁灭,或者也可能是小研究室不管三七二十一先训出个以“表现出高智力”为目的的AI、而不管它形成了什么扭曲的价值观。此时人类的处境确实堪忧。

  如果是先①再②,情况则也稳定一些,因为最先出现的大厂制造的AI可以扮演人类守护者的角色,凭借其先发优势积累的算力和势力资源,抹杀掉居心不良的后来的野路子AI。

  如果有空再来详细分析一下上述各种可能性的概率和条件吧。不过我目前还没有做出这样的详细分析所需要的AI和社科知识,所有先鸽着,希望有大佬补充...

  我在看到ChatGPT之后就很少有写知乎的动力,因为很多原本合理的人类活动逐渐被稀释了价值。说到价值,我就想到了尼采要重估一切价值,当然这说的是两码事。但是这个词仍然适用于我们这个时代。今天激起我创作欲望的不是以往的科研领域(我把知乎领域换社科已经有一段时间了),而是想好好地和大家讨论讨论

  。刚刚随手答了下面这个问题,最近这种问题在知乎随处可见,充斥着人类的焦虑和无助。

  我时常和朋友开玩笑说,别看我是做技术(Robotics/AI)的,实际上我很反技术。反的是技术对人的促逼,对人的异化,对人从栖居地的驱赶。如果说海德格尔那个年代忧虑的还是技术对人从 0 到 1 的驱赶,那么现在技术的驱赶力可能是一万。

  但那能怎么样呢?人在不断的驱赶下依然还有新的立足之地,这些新领地恰恰是技术延展出来的。百年前的纺织工人的后代并不会接着做纺织,他可能是一名铁路工人。他的后代可能是个电报员,之后会是电话员、股票代理以及现今担心被淘汰的白领们。只要新技术所带来的新领地足够大,总有你我的容身之地。所以我们想要活下去,要做的就是

  。为什么人总要这样与刚熟悉不久的舒适区匆匆分别呢?因为这就是技术对人的促逼和驱赶呀。人被迫不断改变自身来适应新的技术,沦为技术的一种资源(人力资源)。这本身是件很可怕的事。

  和创造意义地活着。那么第一点在生产力不断发展的前提下无疑是会变得更容易一些的,总归是能活着的。然而第二点却不断受到挑战。如果说人能创造什么意义,我指的是更广泛的普通人,那么无非是海德格尔所说的“林中空地”,是王阳明所说的“你未看此花时,此花与汝心同归于寂;你来看此花时,则此花颜色一时明白起来;便知此花不在你的心外。”以及梅洛庞蒂引用塞尚所说的“风景在我之内思考它自身,我就是它的意识。”人的存在就是对宇宙的解蔽,技术本身也应该是我们的一个解蔽工具而已。然而这些说辞对广泛的普通人的迷失毫无帮助,只能提供短暂的慰藉。

  我不知道,也确实没能力知道。我现在所能做的,就是融入技术的危险当中,去找寻那拯救之力。这或许是条路子,但也不会适合所有人。或许也可以是一些非功利性的爱好,一些新奇的人生体验。技术提高了生产力,人就要学会把自己从生产当中解放出来,去思考更值得思考的事。总而言之,这可能是这个时代的我们需要不断追问自己的一个问题。

下一篇:半岛彩票人工智能在金融行业的5大应用场景
上一篇:半岛彩票人工智能会统治人类吗?

咨询我们

输入您的疑问及需求发送邮箱给我们