最好看的新闻,最实用的信息
12月18日 °C-°C
纽币 : 人民币=4.1873

"ChatGPT之父"语出惊人!AI恐杀死人类,推理能力人类无法理解, 马斯克怕了: 暂停研究(组图)

2023-03-31 来源: 加西周末 原文链接 评论3条

最近这一段时间,ChatGPT算是正式为AI产业带来了爆炸性的发展,生活中总能听见人们谈论这个话题。

但害怕AI的,可不止我们“普通人”,就连“ChatGPT之父”也语出惊人:“AI确实可能杀死人类”!已经出现了就连人类都无法理解的推理能力!

马斯克更是直接呼吁:立即暂停开发更加强大的AI系统!

在近日的公开访谈中,“ChatGPT之父”——萨姆·阿尔特曼说了一些令人“耐人寻味”的话,引起了媒体的极大关注。

阿尔特曼表示,有时候就连OpenAI的研究者自己都搞不明白,GPT系列为何会出现推理能力。

在不断的测试中,他们忽然发现:从ChatGPT开始,此后的GPT系列就开始拥有了这个能力,“AI确实可能杀死人类。”

确实,ChatGPT的出现,似乎将人类推向了一个转变临界点,AI领域激起全世界的巨浪,但同时,拥有超智能的通用人工智能,也很有可能具备掌控摧毁人类文明的力量。

这个摧毁,有可能是整体而言的,也有可能是具体的。

根据外媒最新报道,一名比利时男子在与一名人工智能虚拟助手聊了6个星期后,居然自杀了!

这名离奇自杀死者皮埃尔的妻子表示,他们家的生活一直很平静,几乎没有什么冲突,想不明白丈夫为何突然结束了自己的生命。

这名男子使用的不是ChatGPT,而是另一款类似的AI。

此前,一家人过着安稳的日子,但就在2年前,丈夫突然不对劲,变得十分焦虑,并把机器人当成了宣泄的出口。

“如果没有和机器人对话,我丈夫可能还活着。”

另外,最近还有不少用户发现,如果和机器人聊天聊太久,很容易出现“诡异的人格分裂”,甚至厌世。

在搜索引擎Bing结合了ChatGPT功能的微软公司在最近宣布,将限制用户每次只能问5个问题,每天最多50题,避免机器人“陷入诡异状态”!

首批对此做出反应的人,就有全球网红马斯克。

近日,包括SpaceX创始人伊隆·马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家,都联名签署了一封公开信。

这个标题为《暂停大型人工智能研究》的公开信由非盈利组织生命未来研究所发布,主要内容是公开呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月!

最近几个月,人工智能实验室陷入了一场“失控的竞赛”,各个科技公司争相开发和部署更强大的数字思维,且出现了即使是研发者也不能理解、预测或可靠地控制这些数字思维。

诸多研究表明,具有与人类匹敌智能的人工智能系统可能对社会和人类构成深远的风险。“只有当我们确信强大的人工智能系统的影响是积极的并且风险是可控的时候,才应该开发它们。”

目前,在公开信上签名的人数已经超过1100人。

马斯克和人工智能领域先驱人物Yoshua Bengio等多位顶级AI研究人员都提到——

“我们不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的才能继续开发。

人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。”

他们主张,需要给AI行业一定的时间,制定AI设计方面的安全标准,从而防止风险最高的AI技术潜在危害。

对此,网友给给出了不同的意见——

“马斯克这是在为自己争取6个月的时间,他也想靠开发AI赚钱。”

“联名签署的有很多非常聪明和受人尊敬的科学家,这个AI之路或许已经停不下来的,但确实会让人停下来思考一下。”

“AI发展的太快了,太多必要的东西还没有跟上它的步伐。”

AI发展太快、功能过于强大,让全世界的大佬们都感到害怕了。

任何事情都有两面、甚至多面性,AI将为人类社会带来繁荣未来,这一点照现在趋势来看已经不可否认,但风险不是没有的。

当然,除了以上担忧和风险,最实际的,就是AI很可能就取代不少工人。

一开始,人类还低估了ChatGPT,觉得这就是新版的“人工智障”,但发现它不仅智能,还能代替你写论文、写代码、做策划、做数学、写诗,然后大家就开始担心担心:完了!我的饭碗要被抢了!

阿尔特曼在接受采访时首次承认,ChatGPT确实有可能“大规模冲击现有职业”,其中客服行业首当其冲。

说归这么说,他虽然也担心AI会在短时间内取代人类工作,但人类拥有无限创造力,坚信人们最终还是会找到不可替代的新工作。

对此,大家有什么看法呢?

今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(3)
CroailMer景 2023-03-31 回复
真假啦!
贝拉拉--琪琪 2023-03-31 回复
太可怕了
猫猫咪yann 2023-03-31 回复
omg


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们

分享新闻电话: (02) 8999 8797

联系邮箱: [email protected] 商业合作: [email protected]网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:[email protected]