新足迹

 找回密码
 注册

精华好帖回顾

· Kindle 4到手 给我伪装成了硬壳书 -- 秀秀我自己做的kindle case (2012-3-21) 胡须康 · 全澳E-tag 产品统计大全+NSW toll roads and Fees+昆州Govia E-tag在NSW测试(85楼) (2013-7-13) relaxchair
· 养儿难防老,谁奶谁是娘 (2019-5-21) 馒头 · 一咬牙一跺脚,买了辆HSV——Gen F Clubsport R8 (2014-10-19) bluesknight
Advertisement
Advertisement
楼主:leoyin2014

[其他] ChatGpt Turbo, Gork 迅猛敲响了小白领们的哀钟 [复制链接]

发表于 2023-11-11 21:50 |显示全部楼层
此文章由 mushitage 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 mushitage 所有!转贴必须注明作者、出处和本声明,并保持内容完整
举个例子,就好比人类和这个世界上其他形形色色的动物,比如人类和蚂蚁,就智商技能和科技发展水平而言,人类远远超越了蚂蚁,所以除非哪个蚂蚁不懂事的咬了一口人,或者比小心刚好从人类脚下经过,或者那一窝蚂蚁刚好在人类心爱的家里筑巢,人类不得不或者无可避免的消灭掉那一只或者那一窝蚂蚁;然而现实世界中人类和蚂蚁绝大多数时候都是活在各自的世界里互不侵扰,或者说人类虽然拥有绝对领先的优势和能力也并没有动机和意愿去完全消灭这个地球上的所有蚂蚁,这个例子的弱势一方还可以是现实世界里的所有其他不以人类为敌的的动物,比如鸟类鱼类和大多数动物。所以我一直觉得AI的危险在于,当AI还没有高级到完全自主和有意识的时候,受控于人类刚好又受控于人类中的疯子变成了那个疯子的强大工具来荼毒人类自己,所以更应该要做的是防止没有自主和意识的AI被坏人疯子利用,就像防止恐怖分子获得核武器一个道理。
Advertisement
Advertisement

发表于 2023-11-11 21:55 |显示全部楼层
此文章由 leoyin2014 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 leoyin2014 所有!转贴必须注明作者、出处和本声明,并保持内容完整
mushitage 发表于 2023-11-11 21:50
举个例子,就好比人类和这个世界上其他形形色色的动物,比如人类和蚂蚁,就智商技能和科技发展水平而言,人 ...

世界上最坏的坏人就是美国

炒币分为神、圣、侠、霸、王
请叫我币王

发表于 2023-11-11 21:57 |显示全部楼层
此文章由 mushitage 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 mushitage 所有!转贴必须注明作者、出处和本声明,并保持内容完整
leoyin2014 发表于 2023-11-11 21:55
世界上最坏的坏人就是美国

你对我所题问题的回复是不是跑题了或者答非所问啊朋友????

发表于 2023-11-11 21:59 |显示全部楼层
此文章由 leoyin2014 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 leoyin2014 所有!转贴必须注明作者、出处和本声明,并保持内容完整
mushitage 发表于 2023-11-11 21:57
你对我所题问题的回复是不是跑题了或者答非所问啊朋友????

“防止没有自主和意识的AI被坏人疯子利用”

因为你说的这件事,根本就是不可能的!

人类,包括坏人疯子,都可以创造AI
你管不了,你只能管后果,预防不了发生

炒币分为神、圣、侠、霸、王
请叫我币王

发表于 2023-11-11 22:00 |显示全部楼层
此文章由 mushitage 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 mushitage 所有!转贴必须注明作者、出处和本声明,并保持内容完整
八级大狂风 发表于 2023-11-11 21:47
AI的最终形式就是“所有事情的最优解”!而实现最优解有个硬伤:就是人类的存在。

所以AI就会做出一个合 ...


首先并不因为马斯克说了什么我就一定要同意他的观点,比如我可以“反驳”如下:
举个例子,就好比人类和这个世界上其他形形色色的动物,比如人类和蚂蚁,就智商技能和科技发展水平而言,人类远远超越了蚂蚁,所以除非哪个蚂蚁不懂事的咬了一口人,或者比小心刚好从人类脚下经过,或者那一窝蚂蚁刚好在人类心爱的家里筑巢,人类不得不或者无可避免的消灭掉那一只或者那一窝蚂蚁;然而现实世界中人类和蚂蚁绝大多数时候都是活在各自的世界里互不侵扰,或者说人类虽然拥有绝对领先的优势和能力也并没有动机和意愿去完全消灭这个地球上的所有蚂蚁,这个例子的弱势一方还可以是现实世界里的所有其他不以人类为敌的的动物,比如鸟类鱼类和大多数动物。所以我一直觉得AI的危险在于,当AI还没有高级到完全自主和有意识的时候,受控于人类刚好又受控于人类中的疯子变成了那个疯子的强大工具来荼毒人类自己,所以更应该要做的是防止没有自主和意识的AI被坏人疯子利用,就像防止恐怖分子获得核武器一个道理。

发表于 2023-11-11 22:06 |显示全部楼层
此文章由 mushitage 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 mushitage 所有!转贴必须注明作者、出处和本声明,并保持内容完整
本帖最后由 mushitage 于 2023-11-11 22:08 编辑
leoyin2014 发表于 2023-11-11 21:59
“防止没有自主和意识的AI被坏人疯子利用”

因为你说的这件事,根本就是不可能的!


首先纯碎是为了讨论和FUN,没有和任何人抬杠的意思。

我认为你的回复依然是答非所问, 简单的说我的问题是:为什么完全自主不受人类控制的高级AI要消灭人类? 而不是你回答的美国最坏,或者没法保证没有自我意识的AI不被疯子利用。
Advertisement
Advertisement
头像被屏蔽

禁止发言

发表于 2023-11-11 22:41 |显示全部楼层
此文章由 八级大狂风 原创或转贴,不代表本站立场和观点,版权归 oursteps.com.au 和作者 八级大狂风 所有!转贴必须注明作者、出处和本声明,并保持内容完整
mushitage 发表于 2023-11-11 22:00
首先并不因为马斯克说了什么我就一定要同意他的观点,比如我可以“反驳”如下:
举个例子,就好比人类和 ...

马斯克是实际从事AI研究的人,我不知道你的专业背景,但是我会尊重相关专业的专家的想法。

而且你的比喻有点文不对题了,人和蚂蚁本来就生活在不同的环境里,两者互不干涉也没有交集。如果换个物种比如猫和人类,两者交集密且生活在一起。人把猫当宠物获得快乐,猫把人当成宿主获取食物。但是如果猫的体型大10倍,那么人或许就是猫的食物/猎物了。 比如:狮子、老虎。

同理,AI是人类发明出来用了替代或者部分替代人类工作的东西,和人的生活息息相关。随着AI科技的飞速提升,它的作用会更强大更独立。当某天它计算出必须清除“人”这个步骤去提升效率,那么就危险了。

你现在认为它安全是因为它还没强大到危害的人类的程度(比如:蚂蚁,宠物猫),一旦AI强大到超越人类可以控制的范围,(比如:野生老虎狮子)那么你觉得人类生存会不会是危险了。

发表回复

您需要登录后才可以回帖 登录 | 注册

本版积分规则

Advertisement
Advertisement
返回顶部