切换到宽版
  • 433阅读
  • 0回复

[智能应用]关于「AI 可能导致人类灭绝」的担心 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
104352
金币
6035
道行
19523
原创
29307
奖券
16918
斑龄
185
道券
10072
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 18696(小时)
注册时间: 2007-11-29
最后登录: 2024-07-04
只看楼主 倒序阅读 使用道具 楼主  发表于: 2023-10-30
OpenAI 的 CEO Sam Altman 一直担心 AI 可能导致人类灭绝。

在 5 月的一场 AI 主题的美国国会听证会上,Altman 就表示,需要对 AI 进行监管,如果没有针对超级 AI 的严格监管标准,未来 20 年内将会出现更多危险。

5 月底,Altman 又和谷歌 DeepMind、Anthropic 的 CEO 以及一些知名 AI 研究人员签署了一份简短声明,声称「与流行病和核战争一样,减轻 AI 导致灭绝的风险应该成为全球优先事项之一」。

6 月的旧金山科技峰会上,Sam Altman 提到在 AI 技术发展上「你不应该信任一家公司,当然也不应该信任一个人」,他认为这项技术本身以及它的好处、它的获取、它的治理,都是属于全人类的。

不过也有人(以马斯克为代表)指责Altman「呼吁监管」只是为了保护 OpenAI领导地位。Sam Altman 当时回应称,「我们认为,应该对那些超过某一高度能力阈值的大型公司和专有模型进行更多监管,而对小型初创公司和开源模型的监管应该较少。我们已经看到试图对科技进行过度监管的国家所面临的问题,这不是我们所期望的。」

他还表示,「人们训练的模型远远超出了我们今天拥有的任何模型规模,但如果超出了某些能力阈值,我认为应该需要有一个认证过程,同时还应该进行外部审核和安全测试。而且,这样的模型需要向政府报告,应该接受政府的监督。」

与 Altman 观点相反的是,就在 10 月 19 日,Meta 科学家 Yann LeCun(杨立昆)在接受英媒《金融时报》采访时表达了自己反对过早监管 AI 的立场。

Yann LeCun 是美国国家科学院、美国国家工程院和法国科学院院士,也因发明卷积网络,以及使用卷积神经网络(CNN)的光学字符识别和计算机视觉方面的工作而闻名。

2018 年,Yann LeCun 与 Yoshua Bengio 和 Geoffrey Hinton 一起获得了图灵奖(通常被称为「计算界的诺贝尔奖」),上述三位通常被称为「人工智能教父」和「深度学习教父」。

在访谈中,Yann LeCun 对 AI 监管整体呈现出较为消极的态度,他认为,现在监管 AI 模型就像在 1925 年监管喷气式航空飞机一样(当时这种飞机还没有被发明出来),过早监管 AI 只会加强大型科技公司的主导地位,扼杀竞争。

「监管 AI 的研发会产生令人难以置信的反效果,」Yann LeCun 表示,监管 AI 的要求源于一些领先科技公司的「傲慢」或者「优越感」,这些公司认为只有他们才能获得信任,安全地开发 AI,「他们希望打着 AI 安全的幌子进行监管。」

「但事实上,在我们能够设计出一个系统,让它在学习能力方面能够与猫相匹敌之前,关于 AI 可能会带来风险的辩论都为时过早」,Yann LeCun 表示,当前一代 AI 模型的能力还远未达到一些研究人员所宣称的那样强大,「它们根本不了解世界的运作方式,它们既没有计划能力,也没办法进行真正的推理。」

在他看来,OpenAI 和谷歌 DeepMind 一直「过分乐观」地看待这个问题的复杂性,事实上,距离 AI 达到人类智能水平还需要几个「概念性的突破」。但即便到那时,也可以通过在系统中编码「道德品质」来控制 AI,就像现在可以用制定法律来规范人类行为一样。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个