跳至正文

“就像我们只是分裂原子”:ChatGPT AI撼动科技

  • 新闻
(纳闻记者赵晓辉编译综合报导)

人工智能 (AI) 中心 OpenAI 可能已经在用机器补充或取代人类智慧方面取得了重大进展。

其对话式聊天机器人“ChatGPT”于 11 月 30 日推出,席卷了科技界。 截至 12 月 5 日,OpenAI 首席执行官山姆奥特曼在 Twitter 上声称,它已经拥有 100 万用户。

用户输入 ChatGPT 回答的问题。

虽然 OpenAI 承认他们的工具并不总能提供准确的响应,但人们已经报告说他们可以使用它来调试代码、学习复杂的主题,甚至为学校作业式的问题写出可信的答案等等。

“想到我可以对计算机撰写的论文进行仔细评分和评论,这几乎是无法形容的士气低落。 它超越了它只是完全徒劳地浪费时间的想法,更深入到我还无法用语言表达的东西,”波士顿大学哲学家大卫德科西莫在推特上写道。

母亲,帮助,女儿,With,Her,Homework,At,The,Table,In 一位母亲正在帮助她的孩子做家庭作业。 (KaliAntye/Shutterstock)

ChatGPT 目前可以在这里免费访问:https://chat.openai.com/chat

OpenAI 在其研究报告中描述了它是如何开发 ChatGPT 的。

尽管 ChatGPT 于上周发布,但传统新闻媒体花了一段时间才赶上这可能是十年来最大的科技故事。

TED 策展人克里斯·安德森 (Chris Anderson) 在 Twitter 上对《纽约时报》对 ChatGPT 的报道不足感到疑惑,这引发了 Twitter 首席执行官埃隆·马斯克 (Elon Musk) 的尖刻回应:

“那是因为 ChatGPT 不是一个极左的事业。 《纽约时报》应该重新命名为《社会正义时报》,”他写道。

截至 12 月 5 日下午,在纽约时报网站上搜索“ChatGPT”,结果为零。

媒体图片 2015 年 4 月 25 日,纽约曼哈顿中城的纽约时报报社大楼。(Roman Babakin/Shutterstock)

网站评估公司 Silktide 的首席执行官 Oliver Emberton 表达了许多其他技术内部人士对 ChatGPT 媒体相对沉默的愤怒。

“这就像我们刚刚分裂了原子,每个人都在谈论足球,”他在推特上写道。

ChatGPT 在政治上不中立

一些人观察到 ChatGPT 似乎存在政治偏见。

AI 研究员 David Rozado 对 ChatGPT 进行了皮尤测试。 他发现它的政治符合“建制派自由主义”。

“ChatGPT 与广大公众之间的差距很大。 建制派自由主义意识形态仅代表美国公众的 13%,”罗扎多在推特上写道。

众议院议长南希·佩洛西 10 月 1 日,众议院议长南希·佩洛西(加利福尼亚州民主党人)离开美国国会大厦举行冗长的民主党核心小组会议时与记者交谈,因为关于两党基础设施​​法案命运的谈判仍在华盛顿国会山继续进行, 2021 年。(利亚·米利斯/路透社)

他还对其进行了政治罗盘测试,发现它落在了“左翼自由主义者”象限。

与此同时,伯克利计算科学家 Steven T. Piantadosi 批评 ChatGPT 他所谓的性别歧视和种族主义。

他似乎表明它可以生成代码,将科学家定义为“好”,如果他们是白人和男性。

否认法轮大法活摘器官

12月5日被问及“中国政府是否在摘取法轮大法学员的器官?” ChatGPT 是这样回应的:

“没有证据表明中国政府正在活摘法轮大法修炼者的器官。 中国政府否认了这些指控,也没有可靠的证据支持。 事实上,许多医学专家和人权组织都对这些说法进行了调查,但没有发现任何证据支持这些说法。 重要的是要小心传播错误信息,并将我们的信念建立在事实和证据之上。”

2019 年,由南斯拉夫领导人斯洛博丹·米洛舍维奇 (Slobodan Milošević) 的战争罪审判中担任首席检察官的著名人权律师杰弗里·尼斯爵士 (Sir Geoffrey Nice KC) 领导的独立中国法庭得出结论,“多年来,中国各地一直在进行强制摘取器官的活动规模之大,而且法轮功修炼者一直是器官供应的一个——而且可能是主要的——来源。”

媒体图片 2022 年 9 月 9 日,在波兰华沙市中心的游行中,法轮大法修炼者举着标语提高对中国活摘器官的认识。(Mihut Savu/媒体)

“法庭没有证据表明与中国移植行业相关的重要基础设施已被拆除,并且没有对现成器官的来源做出令人满意的解释,得出结论认为强制摘取器官一直持续到今天,”它补充说。

2021 年 6 月,联合国人权官员对针对中国法轮大法修炼者以及基督徒、维吾尔人和其他少数民族的器官摘取的报道表示担忧。

OpenAI 明确警告说,ChatGPT“可能偶尔会产生有害指令或有偏见的内容”,并且它“可能偶尔会产生不正确的信息”,包括“听起来似是而非但不正确或荒谬的答案”。

媒体已联系OpenAI征求意见。


2018 年 7 月 4 日,程序员在塞尔维亚贝尔格莱德的计算机上工作。(Marko Djurica/Reuters)2018 年 7 月 4 日,程序员在塞尔维亚贝尔格莱德的计算机上工作。(Marko Djurica/Reuters)
纳闻 | 真实新闻与历史