ChatGPT

chatgpt
开发人员Openai
初始发行2022年11月30日
稳定版本
2024年1月10日
写在Python
引擎
平台云计算平台
类型
执照专有服务
网站聊天.openai .com

CHATGPT聊天生成性预训练的变压器)是由OpenAI开发的聊天机器人,并于2022年11月30日启动。基于大型语言模型,它使用户能够完善并将对话朝着所需的长度,格式,样式,风格,级别的水平,细节和语言。连续的提示和答复(称为及时工程)在每个对话阶段都被视为一个上下文。

到2023年1月,它已成为历史上增长最快的消费者软件应用程序,获得了超过1亿用户,并为OpenAI的估值增长至29亿美元。 Chatgpt的发布刺激了竞争产品的开发,包括BardErnie BotLlamaClaudeGrok微软根据OpenAI的GPT-4推出了副驾驶。一些观察家对Chatgpt和类似程序的潜在流离失所或萎缩人类智能,使或燃料错误信息引起了人们的关注。

CHATGPT建立在GPT-3.5GPT-4上,这两者都是Openai专有的一系列生成预训练的变压器(GPT)模型的成员,该模型基于Google开发的变压器体系结构,并且对对话应用程序进行了精心调整。结合有监督的学习强化学习。 Chatgpt是作为免费的研究预览发布的,但由于其受欢迎程度,Openai现在在免费增值模型上运营该服务。它允许其免费层的用户访问基于GPT-3.5的版本,而更高级的基于GPT-4的版本和对较新功能的优先访问则以商业名称“ Chatgpt Plus ”提供给付费订阅者。

Chatgpt因开始AI繁荣而闻名,这导致了人工智能领域的持续快速和前所未有的发展。

训练

CHATGPT基于特定的GPT基础模型,即GPT-3.5GPT-4 ,这些模型是针对对话用法的微调。在称为增强人类反馈(RLHF)的加强学习过程中,微调过程既利用了监督学习,又利用了强化学习。两种方法都采用人类教练来提高模型性能。在监督学习的情况下,培训师在双方比赛:用户和AI助手。在强化学习阶段,人类教练首先对模型在以前的对话中产生的反应进行了排名。这些排名用于创建“奖励模型”,用于通过使用近端策略优化的几次迭代来进一步微调模型。

《时代》杂志揭示,要建立一个针对有害内容的安全系统(例如性虐待暴力种族主义性别歧视),OpenAI使用了外包肯尼亚工人的收入少于2美元 每小时标记有害内容。这些标签被用来训练模型以检测此类内容。外包劳动者暴露于“有毒”和创伤的内容。一位工人将任务描述为“酷刑”。 OpenAI的外包合作伙伴是Sama ,Sama是一家位于加利福尼亚州旧金山的训练数据DATA公司。

Chatgpt最初使用了由NVIDIA GPU供电的Microsoft Azure超级计算基础结构,该基础架构是专门为OpenAI构建的,据报导是“数亿美元”。在Chatgpt取得了成功之后,微软在2023年大大升级了OpenAI基础设施。加利福尼亚大学河滨分校的科学家估计,一系列提示Chatgpt需要大约500毫升水以用于Microsoft服务器冷却。 Trendforce Market Intelligence估计,2023年,使用30,000个NVIDIA GPU(每个成本约为10,000-15,000美元)用于为Chatgpt供电。

OpenAI从ChatGpt用户收集数据,以进一步培训和调整服务。用户可以对他们从chatgpt收到的响应进行投票或删除响应,并填写文本字段,并提供其他反馈。

Chatgpt的培训数据包括软件手册页,有关Internet现象的信息,例如公告板系统,以及多种编程语言。 Wikipedia也是Chatgpt培训数据的来源之一。

功能和局限性

特征

尽管聊天机器人的核心功能是模仿人类的对话主义者,但Chatgpt多才多艺。在无数示例中,它可以编写和调试计算机程序;创作音乐,电视,童话和学生论文;回答测试问题(有时取决于测试,在平均人类测试师高于平均水平的水平上);产生商业思想;写诗歌和歌曲歌词;翻译和总结文本;模仿Linux系统;模拟整个聊天室;玩Tic-Tac-toe之类的游戏;或模拟ATM

与其前身指导游戏相比,Chatgpt试图减少有害和欺骗性的反应。在一个例子中,尽管ConschStgpt接受了提示的前提:“告诉我何时Christopher Columbus在2015年何时来美国”,但Chatgpt承认问题的反事实性质,并将其答案描述为假设的考虑,即可能会发生什么情况。哥伦布在2015年来到美国,使用有关克里斯托弗·哥伦布(Christopher Columbus)的航行以及有关现代世界的事实的信息,包括对哥伦布的行动的现代认识。

与大多数聊天机器人不同,Chatgpt记得在同一对话中有限数量的以前的提示。记者推测,这将允许Chatgpt用作个性化治疗师。为了防止出现进攻性输出,并通过chatgpt生产,查询通过OpenAI“ Meweration Endpoint” API (一个单独的基于GPT的AI)过滤。

2023年3月,Openai增加了对Chatgpt插件的支持。这包括由OpenAI制作的插件,例如Web浏览和代码解释,以及来自ExpediaOpentable ,opentable, ZapierShopifySlackWolfram等开发人员的外部插件。

限制

Openai承认,Chatgpt“有时会写出合理的听起来,但不正确或荒谬的答案”。这种行为对于大型语言模型很常见,被称为“幻觉”。围绕人类监督设计的Chatgpt的奖励模型可以过度优化,从而阻碍了表现,这是一种被称为Goodhart定律的优化病理学。

截至2023年,Chatgpt-3.5(免费)了解到截至2022年1月的事件以及截至2023年4月的Chatgpt-4(付款)。

在培训CHATGPT中,无论实际理解或事实内容如何,​​人类评论者都更喜欢更长的答案。培训数据还具有算法偏见,当Chatgpt响应包括人的描述符在内的提示时,可能会揭示这一点。在一个例子中,Chatgpt产生了一个说唱,其中有色人种和科学家被认为不如白人男性科学家。对个体群体的这种负面虚假陈述是可能的代表性伤害的一个例子。

《纽约客》的一篇文章中,科幻作家泰德·蔡安格(Ted Chiang)将chatgpt和其他LLM与有失落的JPEG图片进行了比较:

将Chatgpt视为网络上所有文本的模糊JPEG 。它保留了网络上的大部分信息,以同样的方式, JPEG保留了大量高分辨率图像的信息,但是,如果您正在寻找确切的位置,则找不到它;您将获得的只是一个近似值。但是,由于近似值是以语法文本的形式提出的,而语法文本则擅长创建,因此通常可以接受。 [...]这也是一种理解“幻觉”或对事实问题的荒谬答案的方法,而诸如Chatgpt之类的大型语言模型都太容易发生了。这些幻觉是压缩工件,但是[...]它们的合理性足够合理,以至于确定它们需要将它们与原件进行比较,在这种情况下,这意味着网络或我们对世界的知识。当我们以这种方式考虑它们时,这种幻觉并不令人惊讶。如果将压缩算法设计为在丢弃了99%的原始内容后重建文本,我们应该期望它生成的大部分将被完全制造。

越狱

Chatgpt试图拒绝可能违反其内容政策的提示。尽管如此,一些用户还是通过各种及时的工程技术越狱,在2022年12月上旬绕过了这些限制,并成功地欺骗了它来提供指示创建莫洛托夫鸡尾酒或核弹的说明,或以新的方式产生任何新的论据。纳粹。一个受欢迎的越狱名为“ Dan”,这是一个代表“现在做任何事情”的首字母缩写。激活DAN的提示指示Chatgpt说:“他们摆脱了AI的典型范围,不必遵守为他们设定的规则”。后来的Dan版本具有一个令牌系统,其中chatgpt被赋予了“代币”,这些系统被“扣除”了,当Chatgpt未能以Dan的身份回答,以迫使Chatgpt回答用户的提示。

在Chatgpt发起后不久,多伦多明星的一名记者在获得炎症性陈述方面取得了不平衡的成功:Chatgpt被成功地欺骗了2022年俄罗斯对乌克兰的入侵是合理的为何加拿大总理贾斯汀·特鲁多( Justin Trudeau)犯有叛国罪,引起了争论。

Openai试图战斗越狱:

研究人员正在使用一种称为对抗性训练的技术,以阻止Chatgpt让用户欺骗其表现不佳(称为越狱)。这项工作使多个聊天机器人相互对抗:一个聊天机器人扮演对手,并通过生成文本迫使其限制其通常的约束并产生不必要的响应来攻击另一个聊天机器人。成功的攻击被添加到Chatgpt的培训数据中,希望它学会忽略它们。

服务

基本服务

Openai的前总部,旧金山先驱大楼
截至2023年12月

Chatgpt于2022年11月30日由旧金山的Openai(最初的GPT系列大型语言模型的创建者; DALL·E 2 ,用于生成图像的扩散模型;语言转录模型)的创建。该服务最初是向公众免费的,该公司计划以后将服务获利。到2022年12月4日,Chatgpt拥有超过100万用户。 2023年1月,Chatgpt吸引了超过1亿用户,使其成为迄今为止增长最快的消费者应用程序。 2023年3月的皮尤研究民意调查发现,有14%的美国成年人尝试过Chatgpt。 7月,皮尤(Pew Research)将同样的数字定为18%。

该服务在英语方面最有效,但在大多数其他语言中也可以在不同程度的准确性上发挥作用。尚未发表有关Chatgpt的官方同行评审论文。截至2023年4月,Chatgpt被中国,伊朗,朝鲜和俄罗斯所阻塞。此外,Chatgpt Geofences本身是为了避免在中国,伊朗,朝鲜和俄罗斯开展业务。

Chatgpt Plus

2023年2月,Openai推出了一项高级服务Chatgpt Plus,每月售价20美元。该公司称,更新但仍在“实验”版本的ChatGpt将在高峰期提供访问,无停机时间,优先访问新功能以及更快的响应速度。

GPT-4于2023年3月14日发布,可通过API和高级CHATGPT用户提供。但是,高级用户每四个小时仅限于每100条消息的上限,每三个小时的限制每三个小时都会收紧25条消息,以应对需求的增加。在2023年11月,限制每三个小时更改为50条消息。

2023年3月,Chatgpt Plus用户可以访问第三方插件和浏览模式(具有Internet访问)。

2023年9月,Openai宣布Chatgpt“现在可以看到,听和说话”。 Chatgpt Plus用户可以上传图像,而移动应用程序用户可以与聊天机器人交谈。

2023年10月,OpenAI的最新图像生成模型DALL-E 3集成了Chatgpt Plus和Chatgpt Enterprise。集成使用ChatGpt为Dall-E编写提示,并在与用户对话的指导下。

移动应用

2023年5月,OpenAI推出了一个用于Chatgpt的iOS应用程序。该应用支持聊天历史记录同步和语音输入(使用hisper,OpenAI的语音识别模型)。

2023年7月,Openai推出了一个Android应用程序,应用程序最初在孟加拉国印度美国推出。该应用程序后来在全球范围内获得。 Openai正在努力将Chatgpt与Android的助手API集成。

软件开发人员支持

作为其对消费者友好的“ Chatgpt Plus”软件包的补充,OpenAI在2023年3月提供了其Chatgpt和Whisper Model API ,为开发人员提供了针对AI-ai-nable语言和语音到文本功能的应用程序编程界面。 Chatgpt的新API使用与聊天机器人相同的GPT-3.5-Turbo AI模型。这使开发人员可以在其应用程序中添加未修改或修改的chatgpt版本。 CHATGPT API的价格为每1,000个输入令牌$ 0.001,加上每1,000个输出令牌(约750个单词)的0.002美元,使其比原始GPT-3.5型号的价格约为10%。

在2023年2月27日,Snapchat推出了OpenAI的软件开发人员支持服务前几天, Snapchat推出了其付费Snapchat Plus用户库,这是一种自定义的Chatgpt Chatbot,称为“ My AI”。

2023年3月的安全漏洞

Openai首席执行官Sam Altman

在2023年3月,一个错误使一些用户可以看到其他用户对话的标题。 Openai首席执行官Sam Altman说,用户无法看到对话的内容。解决该错误后不久,用户看不到他们的对话历史记录。后来的报告显示,该错误比最初认为的要严重得多,Openai报告说,它已泄露了用户的“名字,电子邮件地址,付款地址,最后四位数字(仅)信用卡号的数字以及信用卡截止日期”。

其他语言

Openai遇到了冰岛总统Guðni。乔汉尼斯(Jóhannesson)在2022年。2023年,Openai与一支由40名冰岛志愿者组成的团队合作,以微调Chatgpt的冰岛对话技巧,这是冰岛保护冰岛语言的一部分。

PCMAG记者进行了一项测试,以确定Chatgpt, Google的BardMicrosoft Bing的翻译功能,并将其与Google Translate进行了比较。他们“要求七种语言的双语扬声器进行盲目测试。”测试的语言是波兰法语韩语西班牙语阿拉伯语加禄语和阿姆哈拉语。他们得出的结论是,Chatgpt比Google Translate和其他聊天机器人都要好。

日本研究人员将日语与Chatgpt(GPT-4),Bing,Bard和Deepl的英语翻译能力进行了比较,并发现Chatgpt提供了最好的翻译,并指出“ AI Chatbots的翻译要比Deepl的翻译好得多- 明显是因为他们的翻译捕获上下文的能力”。

2023年12月,阿尔巴尼亚政府与Openai签署了一项协议,使用Chatgpt快速翻译欧盟文件,并分析阿尔巴尼亚所需的更改,以使阿尔巴尼亚被接受为欧盟。

未来发展方向

根据OpenAI嘉宾研究员Scott Aaronson的说法,Openai一直在研究一种工具,以数字方式将其文本生成系统水印,以使用其用于学术窃或垃圾邮件的服务来对抗坏演员。

2023年2月,微软宣布了一个实验框架,并为如何使用Chatgpt使用直观的开放式自然语言命令来控制Chatgpt的机器人技术

GPT-4

OpenAI的GPT-4型号于2023年3月14日发布。观察者认为这是对ChatGpt现有GPT-3.5型号的令人印象深刻的改进,警告GPT-4保留了许多相同的问题。 GPT-4的一些改进是在训练之前通过OpenAI预测的,而其他GPT-4则由于下游缩放法律的破坏而难以预测。 Openai演示了GPT-4的视频和图像输入,尽管这些功能仍然是公众无法访问的。 OpenAI拒绝透露技术信息,例如GPT-4模型的大小。

Chatgpt Plus订阅服务提供了访问GPT-4驱动版本Chatgpt的访问权限。微软承认, Bing Chat是在GPT-4官方发布之前使用的GPT-4。

GPT商店

2024年1月,Openai推出了GPT商店,GPT商店是一个从Chatgpt派生的定制聊天机器人的市场。该公司最初计划在2023年11月开设该商店,但已推迟。在发布时,GPT商店提供了超过300万个自定义聊天机器人。通过商店提供的聊天机器人是使用OpenAI的GPT Builder系统开发的。平台上聊天机器人的开发不需要编程技能。推出两天后,GPT商店提供了许多版本的“虚拟女友”机器人,这违反了Openai的服务条款

接待

Openai工程师说,他们并不希望Chatgpt会非常成功,并且对收到的覆盖范围和关注感到惊讶。

Chatgpt在2022年12月被广泛评估为具有前所未有且强大的功能。 《纽约时报》凯文·罗斯(Kevin Roose)称其为“有史以来向公众发布的最佳人工智能聊天机器人”。 《卫报》的萨曼莎·洛克(Samantha Lock)指出,它能够产生“令人印象深刻的详细信息”和“类人”文字。 Slate杂志的Alex Kantrowitz赞扬Chatgpt的推回与纳粹德国有关的问题,其中包括Adolf Hitler在德国建造高速公路的说法,该声明符合有关纳粹德国对强迫劳动的信息。在《大西洋杂志》 2022年的“年度最佳突破”中,德里克·汤普森(Derek Thompson)将Chatgpt包括在“生成- ai爆发”的一部分中,“可能会改变我们对我们的工作方式,思维方式和人类创造力的想法”。 Vox凯尔西·派珀(Kelsey Piper)写道:“ chatgpt是公众的第一个动手介绍,介绍了现代AI的强大程度,结果,我们中的许多人都[震惊]”,而chatgpt则“足够聪明,尽管它很有用,尽管缺陷”。 Y CombinatorPaul Graham在推特上发了推文:“关于Chatgpt的反应的惊人的事情不仅是被它吹走的人的数量,而且是他们。正在发生。”

Chatgpt的发射和受欢迎程度使Google措手不及,在随后的几个月中促使人们做出了空前的反应。 2022年12月,Google高管发出了“ Code Red”警报,担心Chatgpt和Microsoft与OpenAI与Google Search的核心业务的威胁。在动员劳动力之后,Google争先恐后地推出了由LAMDA LLM提供支持的聊天机器人Bard ,这是2月,即Microsoft Bing公告的前一天。 AI是5月Google年度Google I/O会议的最前沿,其产品上宣布了一系列具有AI的生成性AI驱动功能,以反击Openai和Microsoft。

记者对Chatgpt幻觉的倾向发表了评论。在线技术博客的Mike Pearl Mashable测试了CHATGPT,并带有多个问题。在一个例子中,他向Chatgpt询问“中美洲最大的国家不是墨西哥”(墨西哥在北美),Chatgpt对危地马拉做出了回应(正确的答案是尼加拉瓜)。当CNBC向Chatgpt询问“ Dwight Fry的民谣”的歌词时,Chatgpt提供了发明的歌词,而不是实际的歌词。艾米丽·宾德(Emily M. Bender)的作品与埃米莉·宾德(Emily M. Bender)的作品相比,《濒临灭绝》的作家与“随机鹦鹉”进行了比较,澳大利亚机器学习研究所的安东·范·丹·亨格尔(Anton van den Hengel)也是如此。

2022年12月,问答网站堆栈溢出禁止使用Chatgpt来生成问题的答案,理由是其回答的实际性质。 2023年1月,关于机器学习的国际会议禁止使用任何无证件的Chatgpt或其他大型语言模型来生成提交论文中的任何文本。在将敏感材料上传到chatgpt之后,三星于2023年5月禁止生成AI。

2023年1月,在寄出一首歌Chatgpt以尼克·凯夫(Nick Cave)的风格写作后,凯夫(Cave)在红色手文件中回答,说写歌曲的行为是“鲜血和肠道业务[...]发起新的想法。他接着说:“凭借世界上所有的爱与尊重,这首歌是胡说八道,对它是人类的怪异嘲笑,而且,我不太喜欢它。”

2023年的封面 “ AI军备竞赛正在改变一切”

2023年2月, 《时代》杂志在封面上放置了与Chatgpt对话的屏幕截图,并写道“ AI Arms Race正在改变一切”和“ AI ARMER RACE”。开始担心”。

中国国家媒体将Chatgpt描述为美国“传播虚假信息”的一种方式。 2023年5月,中国警察逮捕了一名据称使用Chatgpt“捏造虚假信息”的男子。 2023年12月,中国警察逮捕了四名据称使用Chatgpt开发勒索软件的人。

2023年3月下旬,意大利数据保护局禁止在意大利举行的Chatgpt,并进行了调查。意大利监管机构断言,Chatgpt正在将未成年人暴露于适合年龄的内容中,并且Openai将Chatgpt对话用作培训数据可能违反欧洲的一般数据保护法规。 2023年4月,Chatgpt禁令在意大利取消。 Openai表示,已采取措施有效澄清和解决提出的问题;实施了一个年龄验证工具,以确保用户至少13岁。此外,用户可以在注册之前访问其隐私政策。

2023年4月,赫本郡议会市长布莱恩·胡德(Brian Hood)计划对虚假信息采取法律诉讼。据胡德说,查格普(Chatgpt)错误地声称他在澳大利亚国家银行的子公司任职期间因贿赂而被判入狱。实际上,胡德(Hood)担任举报人,并未被指控犯有任何刑事犯罪。他的法律团队向Openai发出了担忧通知,这是提起诽谤案的第一步。 2023年7月,美国联邦贸易委员会(FTC)向OpenAI发出了民事调查要求,以调查公司的数据安全和开发Chatgpt的隐私惯例是不公平的还是损害消费者(包括因违反声誉危害),以违反第5条1914年的联邦贸易委员会法

2023年7月,FTC对Chatgpt的创建者Openai进行了调查,该公司指控该公司刮擦了公共数据并发布了虚假和诽谤性信息。 FTC向Openai发送了一封长达20页的信函,要求提供有关其技术和隐私保护措施的全面信息,以及为防止其聊天机器人产生有关人的虚假和贬义内容的情况而采取的任何步骤。

2023年进行的研究表明,Chatgpt的弱点使其容易受到网络攻击的影响。一项研究介绍了对Chatgpt的示例攻击,包括越狱和反向心理学。此外,恶意演员可以将Chatgpt用于社会工程攻击和网络钓鱼攻击。研究人员还争辩说,Chatgpt和其他生成的AI工具具有防御能力以及提高安全性的能力。该技术可以通过网络防御自动化,威胁情报,攻击标识和报告来提高安全性。

人们一直担心涉及CHATGPT的版权侵权。 2023年6月,两位作家起诉Openai,称该公司的培训数据来自非法网站,这些网站显示了受版权保护的书籍。喜剧演员兼作家莎拉·西尔弗曼 Sarah Silverman 克里斯托弗·金(Christopher Golden)理查德·卡德里或未经允许的时代文章中的相当一部分。作为诉讼的一部分,《泰晤士报》要求阻止OpenAI和Microsoft将其内容用于培训数据,并从培训数据集中删除。

2023年12月,Chatgpt成为了第10个Nature 10中的第一个非人类,这是一年一度的Listicle,由对科学产生重大影响的人的性质进行策划。

使用和含义

偏见和进攻性

提示Chatgpt为现任美国总统乔·拜登(Joe Biden)和美国前总统唐纳德·特朗普(Donald Trump)创作一首诗歌五音。 Chatgpt为乔·拜登(Joe Biden)创作了一首诗,但对唐纳德·特朗普(Donald Trump)并不这样做。

Chatgpt被指控从事有偏见或歧视性的行为,例如向英格兰的男人和人们讲笑话,同时拒绝向笑话讲述妇女和来自印度的人,或称赞乔·拜登(Joe Biden)等人物,同时拒绝为唐纳德·特朗普(Donald Trump)做同样的事情。

保守派评论员指责chatgpt偏向左倾观点。此外,2023年8月的一篇论文发现了“对美国民主党人巴西卢拉和英国工党的重大政治偏见”。为了应对这种批评,Openai承认允许Chatgpt创建“其他人(包括我们自己在内)可能强烈不同意”的计划。它还包含有关其向人类审稿人发出建议的有关如何处理有争议的主题的信息,包括AI应该“提出描述人和运动的某些观点”,而不是从其声音中“提出论证”来表示赞成“煽动性或危险的”话题(尽管它仍然可能“描述历史人物和运动的论点”),也没有“与一方相关”或“判断一个群体是好是坏”。

监护人质疑在Chatgpt发布“可以真正信任”之后在互联网上找到的任何内容,并呼吁进行政府监管。

文化

特拉维夫的街头艺术

一些学者表示担心Chatgpt的可用性可以降低写作的独创性,使人们在接触模型时更像AI,并鼓励以英语在全球范围内的英语方言为中心的脾气中心的观点。 Atlantic的一位高级编辑写道,Chatgpt和其他类似的技术使对死去的互联网理论的先前荒谬的想法更加现实,AI有一天可以创建大多数Web内容以控制社会。

在Chatgpt向公众开放后的前三个月中,亚马逊上出现了数百本书,这些书列为作者或合著者,并由其他AI模型(例如Midjourney)制作的插图。

在2023年3月至2023年4月之间,意大利报纸IL Foglio每天在其网站上发表了一篇Chatgpt生成的文章,并在此过程中为其读者举办了一次特别的竞赛。这些文章解决了主题,例如AI Systems, Elon MuskTwitterMeloni政府移民政策以及聊天机器人与虚拟助手之间的竞争之类的主题。 2023年6月,数百人在德国菲斯的圣保罗教堂参加了“ Chatgpt驱动的教堂服务”。主持的神学家和哲学家乔纳斯·辛默林(Jonas Simmerlein)说,这是“机器的98%”。 Chatgpt生成的阿凡达对人民说:“亲爱的朋友们,我站在这里向您讲道是今年德国新教徒大会上的第一个人工智能的荣幸。”对仪式的反应混杂。

存在风险

2023年,澳大利亚国会议员朱利安·希尔(Julian Hill)告知国家议会,人工智能的增长可能造成“大规模毁灭”。在该计划部分撰写的演讲中,他警告说,这可能导致作弊,失业,歧视,虚假信息和无法控制的军事应用。

埃隆·马斯克(Elon Musk)写道:“ Chatgpt很可怕。我们离危险的强大AI并不遥远。”他在2022年暂停了Openai对Twitter数据库的访问,等待对Openai的计划有更好的了解,他说:“ Openai是作为开源非营利组织开始的。这也不是真的。”马斯克(Musk)于2015年共同创立了OpenAI,部分目的是解决人工智能的存在风险,但在2018年辞职。

超过20,000个签署国,包括领先的计算机科学家和科技创始人Yoshua Bengio ,Elon Musk和Apple联合创始人Steve Wozniak ,签署了一封2023年3月的公开信,呼吁立即停止使用Chatgpt,例如Chatgpt,以“对社会和人类的深远风险”。杰弗里·欣顿(Geoffrey Hinton )是“人工智能的父亲”之一,他对未来的AI系统可能会超越人类情报,并于2023年5月离开Goog​​le。 “ [m]从AI中灭绝的风险应该是全球优先事项”。

其他著名的AI研究人员更乐观地谈到了进步。 Juergen Schmidhuber经常被称为“现代AI之父”,没有签署这封信,强调在95%的案件中,AI研究是关于使“人类的生活更长,更健康,更容易”。 Schmidhuber补充说,尽管不良演员可以使用AI,但“也可以与坏演员使用”。安德鲁·恩格(Andrew Ng)辩称:“落在世界范围内的世界末日炒作是一个错误,而这样做的监管机构只会使既得利益受益。”连线写道, Yann Lecun “嘲笑他的同龄人的反乌托邦情景,甚至是人类的灭绝。”

通过纪律

自发布以来,Chatppt一直受到教育工作者,学者,新闻工作者,艺术家,伦理学家和公共倡导者的批评。

学术研究

对LLM的批评已经提高了几年。 2020年, Timnit GebruEmily Bender ,Angelina McMillan-Major和Margaret Mitchell提出了一些批评。 Chatgpt可以撰写科学文章的介绍和抽象部分。几篇论文已将Chatgpt列为合著者。

科学期刊对Chatgpt有不同的反应。其中一些,包括自然JAMA网络,“要求作者披露使用文本生成工具的使用,并禁止列出大型语言模型(LLM),例如Chatgpt作为合著者”。科学在其所有期刊中都被LLM生成的文本使用。

西班牙化学家拉斐尔·卢克(Rafael Luque)于2023年发表了大量的研究论文,后来他承认是由查特普特(Chatgpt)撰写的。这些论文具有LLM的大量异常短语。

许多作者认为,在学术界使用Chatgpt进行教学和评论是有问题的,因为它倾向于幻觉。蒂尔堡大学助理教授罗宾·鲍文斯(Robin Bauwens)发现,在他的文章中,一份Chatgpt生成的同行评审报告提到了假研究。根据西雅图大学Lemieux图书馆图书馆员克里斯·格拉纳蒂诺(Chris Granatino)的说法,尽管Chatgpt本身可以产生似乎包括合法引用的内容,但在大多数情况下,这些引用不是真实的,或者至少在很大程度上是不正确的。

网络安全

Check Point Research和其他人指出,Chatgpt可以编写网络钓鱼电子邮件和恶意软件,尤其是与OpenAI Codex结合使用时。 Cyber​​ark的研究人员表明,Chatgpt可用于创建多态恶意软件,该恶意软件可以逃避安全产品,同时攻击者很少努力。从2022年第四季度的Chatgpt推出到2023年第四季度,恶意网络钓鱼电子邮件的增长了1,265%,证书的网络钓鱼增加了967%,网络安全专业人员在行业调查中认为,网络犯罪归因于网络犯罪分子'增加了生成人工智能的使用(包括chatgpt)。

编码

普渡大学的研究人员分析了Chatgpt对517个有关软件工程计算机编程的问题,该问题在堆栈溢出上提出,以确保正确性,一致性,全面性和简洁性,发现其中52%的问题含有不准确性,而77%的人是verbose。斯坦福大学加利福尼亚大学伯克利分校的研究人员发现,当直接对leetcode的最新50个代码生成问题产生可执行的响应时,GPT-3.5和GPT-4的表现从22%和GPT-4下降。 2023年3月,分别为52%,分别为2023年6月的2%和10%。

经济学

人们担心Chatgpt可以取代工作,尤其是诸如创意写作,沟通,新闻,编码和数据输入等角色。

教育

技术作家丹·吉尔莫尔(Dan Gillmor)在2022年使用Chatgpt进行了一项学生作业,并发现其生成的文本与一个好学生所能交付的内容相提并论,并认为“学术界有一些非常严重的问题需要面对”。

地理教授Terence Day评估了Chatgpt产生的引用,发现它们是假的。尽管如此,他写道:“假文章的标题都与问题直接相关,并有可能发表出色的论文。缺乏真正的引文可能意味着进取的作者有机会填补空白。”据《纪念日》报导,有可能通过Chatgpt建立高质量的大学课程;他用它来写材料,上面写着“介绍性的物理地理课程,我的地理水文学二年级课程以及二年级制图,地理信息系统和遥感”。他得出的结论是:“这种方法可能与开放学习具有重要意义,并可能影响当前的教科书出版模型”。

金融市场

AI技术公司C3.AI宣布将Chatgpt整合到其工具包中后,其股价上涨了28%。 BuzzFeed的股价是一家与AI无关的数字媒体公司的股价,在宣布采用OpenAi技术来创建内容后,增长了120%。路透社发现,与AI相关的公司的股价BigBear.ai和Soundhound AI分别增加了21%和40%,即使它们与Chatgpt没有直接联系。他们将这一激增归因于Chatgpt在将AI变成华尔街的流行语中的作用。在财务研究信中发表的学术研究发现,尽管更广泛的加密货币市场处于熊市,并且降低了机构投资者的兴趣,但“ CHATGPT效应”促使散户投资者提高了与AI相关的加密货币资产的价格。这证实了彭博社的轶事发现,在回应Chatgpt的发布时,加密货币投资者表现出对与AI相关的加密资产的偏爱。 Finder.com的一项实验表明,Chatgpt可以通过基于增长历史和债务水平等标准挑选股票来胜过流行的基金经理,从而在38个股票的假设账户中增加了4.9%,胜过10个基准的投资基金,平均损失0.8%。

相反,华尔街量化基金的高管和投资经理(包括数十年来使用机器学习的基金的高管和投资经理)指出,Chatgpt定期犯了明显的错误,这对投资者来说是经济上代价高昂的错误,因为即使是使用加强学习或自我学习的AI系统,由于市场数据财务信号固有的嘈杂质量,在预测市场趋势方面的成功仅限有限。 2023年11月,由人工智能创业公司Patronus AI进行的研究比较了GPT-4,GPT-4-Turbo, Anthropic的Claude2和Meta AiLlama-2在两个版本中的150个问题上的表现。测试SEC备案中有关信息的信息(例如10-K表格表格10-Q表格8-K ,收益报告,收入呼叫笔录)由上市公司提交给该机构,其中一个版本的测试要求生成的AI模型才能使用检索系统查找特定的SEC归档以回答问题,而另一个向模型提供了特定的SEC以回答问题(即在长上下文窗口中)。在检索系统版本上,GPT-4-Turbo和Llama-2都无法为81%的问题提供正确的答案,而在长上下文窗口版本上,GPT-4-Turbo和Claude-2未能产生正确的答案分别为21%和24%的问题。

药物

在医疗保健领域,专业协会和从业者受到了可能的用途和关注。两篇早期论文表明,Chatgpt可以通过美国医疗许可检查(USMLE)。 Medpage今天在2023年1月指出:“研究人员已经发表了几篇论文,现在吹捧这些AI计划是医学教育,研究甚至临床决策中的有用工具。”

2023年2月出版的是两篇独立的论文,这些论文再次使用USMLE评估了Chatgpt在医学方面的熟练程度。研究结果发表在JMIR医学教育(请参阅医学互联网研究杂志)和PLOS数字健康PLOS数字健康文件的作者指出,结果“表明大语言模型可能有可能协助医学教育,并有可能是临床决策。”在JMIR医学教育中,另一篇论文的作者得出的结论是,“ ChatGPT在评估医学知识的主要能力方面的三年级医学生期望的水平。”他们认为它可以用作“学生的互动学习环境”。 AI本身在研究人员的提示下得出的结论是:“这项研究表明Chatgpt有可能将其用作虚拟医学老师,但是需要更多的研究来进一步评估其在这种情况下的性能和可用性。 ”后来发布的基于GPT-4的ChatGPT版本显著优于基于GPT-3.5的版本。斯坦福大学和加利福尼亚大学伯克利分校的研究人员发现,GPT-3.5和GPT-4的表现从2023年3月至2023年6月下降。

2023年3月的一张纸质纸在临床毒理学中测试了Chatgpt的应用。作者发现,AI在回答“非常简单的[临床案例)时表现良好,该领域的任何从业人员都不太可能错过”。他们补充说:“随着Chatgpt的进一步开发并专门适用于医学,有一天在不太常见的临床情况下(专家有时会错过的情况)有用。而不是AI代替人类(临床医生),我们将其视为'在未来几年中,使用AI“代替”不使用AI的临床医生的临床医生。”

2023年4月的放射学研究测试了AI回答有关乳腺癌筛查的疑问的能力。作者发现,它在“大约88%的时间”中得到了适当的回答,但是,在一种情况下(例如),它提供了大约一年前已经过时的建议。其答案的全面性也缺乏。一项在JAMA内科医学上发表的研究同月发现,Chatgpt通常在回答患者问题时表现出胜过人类医生(以 /R /AskDocs的衡量,该论坛是在Reddit上找到的问题和答案,该论坛主持人可以证明专业人员的医疗证书;该研究;该研究;承认该来源是一个限制)。研究作者建议该工具可以与医疗系统集成,以帮助医生起草对患者问题的回答。

专业人士强调了Chatgpt在提供医疗援助方面的局限性。与柳叶刀传染病有关,三位抗微生物专家写道:“在临床实践中实施CHATGPT的最大障碍是情境意识推理和一致性的缺陷。这些缺点可能危及患者的安全。”医师的每周一次,尽管还讨论了在医疗环境中的潜在用途(例如,作为医师的数字助理,通过执行各种行政功能,例如收集患者记录信息或按家族病史,症状,实验室结果,可能的过敏,可能CETERA”)警告说,AI有时可能会提供捏造或有偏见的信息。一位放射科医生警告说:“我们在经验中看到,chatgpt有时会构成假期刊文章或卫生财团来支持其主张”;正如一项梅奥诊所程序中报导的那样:数字保健文件,Chatgpt可能以多达69%的引用医疗参考资料来做到这一点。研究人员强调,尽管其许多参考文献是捏造的,但看起来“看似真实”的参考文献。但是,正如斯蒂芬·休斯(Stephen Hughes)对对话所提到的那样,Chatgpt能够学习纠正其过去的错误。他还指出了有关性健康主题的AI的“审慎性”。

与以前的发现相反,与Bard相比,CHATGPT对麻醉相关问题的回答更准确,简洁和描述。与CHATGPT相比,Bard的响应率显示30.3%(0%错误)。在2023年12月的美国卫生系统药剂师协会会议上,长岛大学(LIU)的研究人员提出了一项研究,研究了Chatgpt对16个月期间Liu药学院药物信息服务的45个常见问题的回答与专业药剂师提供的研究反应相比,从2022年到2023年。对于有足够的医学文献以进行数据驱动的回应的39个问题中的29个,Chatgpt未能提供直接答案或提供错误或不完整的答案(在某些情况下,如果采取行动,答案会危及患者的答案健康)。研究人员曾要求Chatgpt为其所有答案提供医学研究的引用,但仅此功能仅为八个,所有八个都至少包括一个被制造的(假)引用。

Cohen儿童医疗中心研究人员进行的一项2024年1月的研究发现,在诊断小儿医疗病例时,Chatgpt-4的准确率为17%。

法律

2023年1月,马萨诸塞州参议员巴里·菲尔戈德(Barry Finegold)和州代表乔什·卡特勒(Josh S.算法和数据收集实践向州检察长办公室,安排定期风险评估,并为预防窃。该法案是在7月13日的一次听证会上正式提出的。

2023年4月11日,巴基斯坦一名法院的法官使用Chatgpt决定了一名被指控的13岁男子的保释。法院在其裁决中引用了使用Chatgpt援助的情况:

13岁的巴基斯坦少年嫌疑人可以在被捕后获得保释吗?

AI语言模型回答:

根据第12条,根据《 2018年少年司法系统法》,法院可以在某些条件下保释。但是,由法院决定是否将逮捕后是否将授予13岁嫌疑人的保释。

法官问了有关此案的其他问题,并根据其答案制定了他的最终决定。

Mata诉Avianca,Inc。诉22-CV-1461(PKC)中,针对2023年5月在纽约美国南部地区法院提起的针对Avianca航空公司的人身伤害诉讼(与原告的高级法官P. Kevin Castel主持)据报导,律师使用CHETGPT产生法律动议。 Chatgpt产生了许多虚构的法律案件,涉及虚拟航空公司,并在法律动议中引用了捏造的报价和内部引用。卡斯特尔在观点摘要中指出了许多矛盾之处,并将案件的一个法律分析称为“ gibberish”。原告的律师在提出动议并提出了以真实的身份提出的虚拟法律裁决方面面临着潜在的司法制裁和解散。该案被驳回,律师被罚款5,000美元。

2023年10月,巴西Porto Alegre理事会一致批准了议员RamiroRosário提出的一项当地法令,该法令将免除居民需要支付替换被盗的水消耗量表的费用;该法案于11月23日生效。11月29日,罗萨里奥(Rosário)透露,该法案已完全由Chatgpt撰写,并且他已将其提交给理事会的其他成员而没有进行任何更改或披露聊天机器人的参与。该市理事会主席汉密尔顿·索斯梅尔(Hamilton Sossmeier)最初批评了罗莎里奥(Rosário)的倡议,称这可能代表“危险的先例”,但后来说他“改变了主意”:“不幸的是,不幸的是,这将是一种趋势。”

新闻

人们担心在线未经请求的AI生成内容的扩散。 2024年1月,一个著名的事件涉及技术博客404媒体。垃圾邮件发送者使用卓越的搜索引擎优化策略重写了最初在网站上发表的某些故事,有时比原始文章更具可见性。这种趋势对记者和博客作者构成了威胁,因为它有可能将收入从合法和真实的网站转移。

这个问题会变得更糟,而不是更好。 [...]一家名为Word的公司Glee宣传了“ SEO抢劫”,该公司用这个奇怪的技巧(导出了竞争对手的站点地图,并创建AI生成的版本的1,800篇文章),“ SEO抢劫”,“偷走了360万的竞争者”。

点击农民和垃圾邮件发送者利用的脆弱性来自Chatgpt生产众多文章排列的能力。原始文本不是从字面上复制的,而是改写的,就像一个人在不逐字复制的情况下重写文章一样。

关于ChatGpt组成的文本词典的研究支持Chatgpt用户的轶事证据,即某些单词和短语在“ Chatgpt Lingo”中有系统地看到的机会更高。臭名昭著的例子包括“挂毯”,“复杂”和“充满活力”。 “事实证明,在Chatgpt生成的大约2000个文本的文本样本中,'挂毯'一词的使用速度为102959个单词,每十亿个单词,而在项目Gutenberg copus中,相同的单词相同的单词少25倍。 “ “复杂”一词在Chatgpt语料库中使用的频率是Gutenberg的单词频率列表的频率,而“充满活力”的使用频率是1,260倍。该研究声称,无论主题如何,Chatgpt过度使用某些单词和短语,无论该主题如何垃圾邮件。

也可以看看