一场关于ChatGPT话语权的深度思考人

作者丨ElizabethWeil

译者丨ChatGPT

编辑丨孙溥茜

ChatGPT之风愈演愈烈,华盛顿大学语言学家EmilyM.Bender公开反对让大模型(LLM)过度介入人们的生活。

谷歌和亚马逊在论文中提到,LLM已经具有了思维链条(ChainofThought,CoT),和自发性地结构涌现(Emergence),也就是说,LLM开始学会了人类的“慢思考”思维模式,学会了基于逻辑推理的回答,而不再是单单基于直觉的回答。

作为一名语言学家,Bender注意到了LLM“权力扩张”的危险性,已经开始有人相信——“我们应该放弃「人类」在「物种」上如此重要的想法”。

这种想法背后隐含着的,实际上是LLM高度发展可能带来的一个AI伦理问题:如果有一天,我们造出了人类无法分辨的聊天机器人,那么这个机器人是否享有“人权”?

Bender对此表示深刻的担忧。虽然地球上的物质都很重要,但是从语言模型到存在危机的路程,实在太短。

地球上懂得核武器的人士少之又少,不同于核武器,LLM影响力巨大,却还没有人论证清楚,它将会给人类社会带来怎样的影响。

ChatGPT对我们生活的影响已经显现,同时,也有不少人像Bender一样注意到了ChatGPT带来的伦理难题,已经有多家学校、期刊、学术会议禁止使用ChatGPT,也有一部分企业加入了这一阵营。

Bender知道自己无法与万亿游戏抗衡,但是她仍在提问,LLM究竟为谁服务,她希望在失控之日来临之前,人们能够尽快认清自己的位置。

存在就是正义。

就像她说的,只要是人类,就应该得到道德上的尊重。

本文原载于Nymag.


转载请注明:http://www.aierlanlan.com/rzgz/7571.html

  • 上一篇文章:
  •   
  • 下一篇文章: