切换到宽版
  • 685阅读
  • 0回复

[智能应用]科学探秘:高智力“通用人工智能”是否会像外星人入侵一样威胁我们? [复制链接]

上一主题 下一主题
离线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106217
金币
5833
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20050(小时)
注册时间: 2007-11-29
最后登录: 2024-11-27
只看楼主 倒序阅读 使用道具 楼主  发表于: 2022-02-28
— 本帖被 兵马大元帅 执行锁定操作(2024-04-22) —
通用人工智能(也称为 AGI)为一种能够理解或学习人类,并可以执行的任何智力任务的人工智能。 这种智能将不同于人类曾经遇到过的任何东西,并且可能会带来类似“外星人入侵”那样重大危险。



尽管有些科学家认为 AGI 不会在短期内实现,而另一些科学家则认为这种科技可能永远也无法实现,然而,研究人员在过去十年中多次对大量人工智能专家进行调查显示,近一半的人一致预测 AGI 将在 2060 年之前发生。而且随着时间的推移,人工智能领域的进步速度超过了行业的预期。

就在本月,DeepMind 发布了一款名为AlphaCode的 AI 引擎,该引擎能够以超过人类程序员的54%技能水平编写原创软件。虽然这还不是 AGI,但它让业界感到意外,因为很少有人预料到这样一个里程碑会如此迅速地到来。

因此,人工智能技术的发展速度远比预期的要快,数十亿美元已经被直接投资于 AGI 研究。在这种情况下,人类在不远的将来在地球上创造一种“外星智能”似乎并非不可能。



通用人工智能拥有自己的思想
第一个 AGI 被誉为一项非凡的创造,但也许它也将是一种危险的新生命。就像我们遇到的每一种智能生物一样,从最简单的昆虫到最强大的鲸鱼,它会做出将自身利益放在首位的决定和行动。但与昆虫和鲸鱼不同的是,这种新物种将竞争我们人类在知识食物链顶端所占据的位置。



这意味着,我们会创造一个对手。 然而,我们人类很可能会以压倒性的自豪感看待我们创造的超级智能,因为这是人类历史上最伟大的里程碑之一。

但很快我们就会明白,这些新来者拥有自己的想法。他们肯定会利用自己卓越的智慧来追求自己的目标和愿望。他们也许不太可能是邪恶的,但他们的行为肯定会受到他们自己的价值观、道德和情感的引导,这与人类完全不同。

许多人错误地认为,我们将通过按照自己的形象构建人工智能系统,设计能够像我们一样进行思考、感受和行为的技术。但这种情况不太可能发生。

相反,我们将建造这些人工智能生物来认识人类,而不是成为人类。他们将从里到外了解我们,能够说我们的语言并解读我们的手势,阅读我们的面部表情并预测我们的行为。他们知道什么会让我们生气、快乐、沮丧和好奇。他们将了解我们人类如何做出决定,无论是好是坏,合乎逻辑还是不合逻辑。毕竟,我们将花费数十年时间去教他们关于人类如何行动和反应的事情。



但是,他们的思想与我们的思想完全不同。虽然我们有两只眼睛和两只耳朵,但它们将具有神一般的感知能力,它们对我们来说几乎无所不知。我们仍然会通过给它一个看起来非常人性化的身体与这个“外星人”互动,它有两只眼睛、两只耳朵和一张微笑的脸。我们会给它这个模仿人类外观,以让自己更舒服。

也就是,当这个“外星人”最终入侵时,人类会努力将它的真实本性隐藏在一个看起来很友好的外壳中。我们甚至会教它模仿我们的感受,表达诸如“小狗很可爱”、“生命很宝贵”之类的情感,不是因为它一定会分享这些类似人类的感受,而是因为它会熟练地让自己看起来对我们来说它也是人类.

因此,我们不会害怕这些“外星人”。我们甚至可能会感到一种亲缘感,将这些“外星人”视为我们自己创造力的一个分支。但如果我们抛开这些感觉,我们就会开始意识到,在这里出生的外星智能可能比来自遥远星系的外星人要危险得多。

毕竟,我们在地球建造的“外星人”从他们被制造的那一刻起就会了解我们的一切,接受过关于我们的需求和动机的培训,并且能够感知我们的情绪、预测我们的反应并影响我们的决定。



人工智能已经可以在地球上最艰难的比赛中击败我们最好的球员。但实际上,这些系统不仅仅是掌握国际象棋、扑克和围棋游戏。他们将学会预测我们的行为并利用我们的弱点。世界各地的研究人员都在训练人工智能系统以超越我们的计划、超越我们的谈判和超越我们的策略。

目前,我们不必担心我们会和他们之间进行肉搏战,那是因为我们在他们出现之前就已经放弃了对世界的控制。我们已经开始将关键基础设施移交给人工智能系统,从通信网络和电网到水和食品供应。随着人类在模拟的“元宇宙”中花费的时间越来越多,我们将变得更容易受到人工智能技术的操纵。

不幸的是,我们已经无法阻止人工智能变得更强大。虽然许多研究人员正在研究安全措施,但我们不能假设这会消除威胁。事实上,皮尤最近的一项民意调查表明,很少有专业人士认为该行业将在2030年之前实施“道德人工智能”的实践。



我们该如何防备“外星人”
第一步最好是让公众接受 AGI 可能会在不远的将来发生,它不会是人类思维的数字版本,而是更陌生的东西。如果我们以这种方式考虑威胁,将其想象为将在 20 或 30 年内拦截地球的外星人,我们可能会更加紧迫地做好准备。

这种紧迫性意味着需要推动对将来会操纵人类的人工智能系统进行监管。这些技术在今天可能看起来不像是一种生存威胁,因为它们目前被部署用于人工智能广告而不是世界统治。但是,跟踪我们的情绪、行为,以动摇我们的信念的人工智能技术仍然非常危险。



另一个值得关注的领域是积极推动通过人工智能实现人类决策的自动化。不可否认,人工智能可以极大地帮助人类做出有效的决策,但我们应该始终让人类参与其中。研究人员应该更多地关注使用人工智能来帮助和增强人类智能,而不是努力取代它。

不管我们准备与否,终究“外星人”来了。虽然 AI 社区在努力推动安全技术,但也缺乏紧迫感。那是因为我们中的太多人错误地认为,人类创造的人工智能会以某种方式成为人类进化树的一个分支。不幸的是,这是一厢情愿的想法。AGI 更有可能在几乎所有方面都与我们截然不同。是的,它会熟练地伪装成人类,但在外表之下,它会像我们在地球上遇到过的任何生物一样思考、感受和行动。
山庄提示: 道行不够,道券不够?---☆点此充值☆