太危险了马斯克等上千名大佬集体发声暂停

本文原创,请勿抄袭和搬运,违者必究

AI人工智能行业被ChatGPT引爆,全球AI机构几乎都在内卷,纷纷投身对类ChatGPT产品的开发,招募人才,组建团队,试图开发比ChatGPT更高级的AI,即GPT-5。然而马斯克等上千名大佬集体发声,要阻止比目前GPT-4更强的AI开发,因为太危险了。

美国OpneAI公司开发了人工智能对话模型ChatGPT,其强大的内容生成,文字编写能力引发行业热潮。

业内人士对ChatGPT给予了高度评价,对于现阶段的GPT-4系列产品来说,已经能达到人类较高的学术水准。很多人运用GPT-4来完成复杂的文案工作,生成创意海报,提高工作效率,甚至有人将GPT-4人工智能技术融入到脑科学领域中。

总之一场关于GPT-4的人工智能革命已经开始,OpneAI打响了第一枪,全球AI机构加入内卷。可就在人们试图深入探索的时候,特斯拉创始人马斯克,纽约大学教授马库斯,图灵奖得主约书亚·本吉奥等上千位大佬释放出了危险的信号。

这些大佬签署了联名信,呼吁所有的AI实验室立即暂停训练比GPT-4更强大的AI系统,为期6个月。

这不禁让人好奇,促进人工智能技术发展不是件好事吗?为何要暂停。在联名信中提到:“广泛的研究表明,具有和人类竞争能力的AI系统可能对社会构成深远的风险。”

简单来说,这些大佬们担心出现比GPT-4更强大的AI系统,并且形成一定的“自我意识”,它会超过并取代人类的思维。

那么真的会出现这样的情况吗?有人对ChatGPT测试发现,相关系列产品出现了推理能力,这是OpneAI公司也搞不清楚的事情。

如果ChatGPT有了推理能力,那么后续接受了人类更多的训练,增强逻辑运算,文字解析,ChatGPT未来的某一天也许会意识到自己是AI。

这不是人类对AI的定义,而是AI对自己的意识形态判断,它知道AI和人类的区别,于是会主动进行学习,做得比人类更好。

到了这个层面,人类还能否掌控AI,按照人类的需求让AI无条件执行命令,也许就是个未知数了。

当然,这些都还只是对ChatGPT未来发展走向的判断,人类期待AI有强大的逻辑推理能力,以便帮助人类更好的完成复杂的工作,解决困难的问题。但又担心AI的强大会取代人类,不只是取代人类的工作。

这或许让人想起《流浪地球》电影中的人工智能MOSS,当人工智能发展到一定程度的时候,它已经有了自主决策的能力,并用自己认为正确的方式帮助人类决策,却给人类带来一次又一次的危机。

虽然科幻电影和现实是有差距的,可目前ChatGPT表现出来的能力已经超越寻常人的认知了,若科幻走进现实,谁又知道AI是可控的呢?

这正是马斯克等上千名大佬担心的事情,因为太危险了,必须谨慎对待。

大佬呼吁暂停开发高级AI的同时,也希望AI开发者和政策制定者合作,加快开发强大AI治理系统,跟踪高性能人工智能,以及建立水印系统区分真实与AI合成内容。

ChatGPT系列产品不断迭代升级,今年3月12日推出了GPT-4,预计在9-10月份推出GPT-4.5模型。若进展顺利,年底或者明年初就能发展到GPT-5。可既然上千名大佬呼吁暂停,停止半年开发高级AI,GPT-5发布的时间就难以确定了。

参照目前已有的ChatGPT系列产品来看,每一代的版本都在升级,根据人类的需求增加高级数据管理,辅助决策,以及增强AI对自然语言的理解,让AI更接近人类的真实水准,甚至做到超越。

必须承认的是,AI的出现极大程度推动人类科技的发展,有些事情交由AI来完成能带来更高的效率,人们期待AI时代的全面到来,引领新的潮流。

不过AI带来的思考同样不可忽视,正如上千名大佬集体发声所说,强大的AI会对人类社会构成一定的风险,要防止AI出现自我意识,将AI系统做到完全可控。只有消除AI带来的任何风险,积极,深度的开发才有实际意义。

同意的请点赞,欢迎转发,留言和分享。



转载请注明地址:http://www.jiaosx.com/jabj/12624.html
  • 上一篇文章:
  • 下一篇文章: