2024年6月21日

  财联社4月1日讯(编辑牛占林)本周一封由埃隆·马斯克等人签署的公开信在网上热传,再度将ChatGPT等(AI)推到了风口浪尖。但随着时间的流逝,这场活动似乎变成了一场闹剧。

  这封公开信由非营利组织未来生命研究所(FutureofLifeInstitute)对外公布,其名题为“暂停巨型AI实验:一封公开信”。截至周五,已经有1800多名科技公司高管和顶级AI研究人员进行了署名,

  他们呼吁暂停训练比GPT-4更强大的AI系统。最好有六个月乃至更长时间的暂停,将使该行业有时间制定AI设计方面的安全标准,从而防止风险最高的一些AI技术的潜在危害。

  首先,这封信最初允许任何人在没有身份验证的情况下签名,这导致闹出了一些笑话。OpenAI首席执行官SamAltman的名字出现在名单上,Altman回应称,他从未在这封信上签名。Meta首席AI科学家YannLeCun和StabilityAI首席执行官Mostaque等知名人士也遭遇了类似的情况。

  其次,也是最为重要的是,这封公开信声称,AI系统对人类构成了深远的风险,并引用了12项相关专家的研究,这些专家包括大学学者、专家,以及OpenAI、谷歌及其子公司DeepMind的员工。

  如今,这些被引用论文和观点的专家接连发声,他们表示并不认可马斯克等人的观点,甚至直接称后者“精神错乱”。

  在引用的研究中,包括玛格丽特·米切尔(MargaretMitchell)合著的著名论文《论随机鹦鹉的危险》,她曾在谷歌负责伦理研究。米切尔目前担任人工智能公司HuggingFace的首席伦理科学家,她对这封信提出了批评。她表示尚不清楚“比GPT4更强大”的定义是什么。米切尔说:“这封信将许多有问题的想法视为既定事实,从而提出了一系列有利于未来生命研究所(FLI)支持者的人工智能叙事。”

  她的合著者蒂姆尼特·格布鲁和艾米丽。本德也在推特上批评了这封信,本德称其中一些说法简直是“精神错乱”,充斥着对AI的炒作。格布鲁表示:“他们基本上和我们说的相反,还引用了我们的论文。”

  康涅狄格大学的助理教授ShiriDori-Hacohen也对信中引用她的论文提出了异议。她去年与人合著了一篇研究论文,认为AI的广泛使用已经带来了严重的风险。

  她的研究认为,目前AI系统的使用可能会影响与气候变化、核战争和其他生存威胁相关的决策。

  她最新表示:“人工智能不需要达到人类水平就会加剧这些风险,而有些风险真的非常非常重要,但没有得到必要的关注。”

  而OpenAI首席执行官Altman对此回应称,从某种意义上说,这是多此一举,一直以来我们对这些问题的讨论是声音最响、力度最大且持续时间最长的。

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注