OpenAI:通过GPT-4人工智能变得更智能、安全、直观

最热门的 AI 技术基础周二进行了重大升级,OpenAI 的 GPT-4 版本现在可用于ChatGPT 聊天机器人的高级版本。

OpenAI 周二表示,GPT-4 可以生成更长的文本字符串并在人们向其输入图像时做出响应,它旨在更好地避免早期 GPT-3.5 中可见的人工智能陷阱。例如,这家人工智能研究公司表示,在律师执业必须通过的律师资格考试中,GPT-4 排名前 10%,而 GPT-3.5 排名后 10%。

OpenAI 首席执行官 Sam Altman

GPT 代表 Generative Pretrained Transformer,指的是它可以自己生成文本——现在使用 GPT-4 最多可以生成 25,000 个单词——并且它使用了谷歌率先推出的一种名为 transformers 的人工智能技术。这是一种称为大型语言模型或 LLM 的 AI,它根据从互联网收集的大量数据进行训练,通过数学学习来发现模式和重现风格。人类监督员对结果进行评分,以引导 GPT 朝着正确的方向发展,而 GPT-4 有更多此类反馈。

多年来,OpenAI 一直为开发人员提供 GPT,但去年 11 月推出的 ChatGPT 提供了一个普通人可以使用的简单界面。这引起了人们对这项技术的兴趣、实验和担忧的爆炸式增长。它可以做任何事情,从生成编程代码和回答考试问题到写诗和提供基本事实。即使不总是可靠,也很了不起。

ChatGPT 是免费的,但在需求量大时可能会出现问题。1 月,OpenAI 开始以每月 20 美元的价格提供 ChatGPT Plus,并且保证可用性,现在还提供 GPT-4 基础。开发人员可以在等候名单上注册以获得自己对 GPT-4 的访问权。

GPT-4 的进步

“在随意的谈话中,GPT-3.5 和 GPT-4 之间的区别可能很微妙。当任务的复杂性达到足够的阈值时,差异就会出现,”OpenAI 说。“GPT-4 比 GPT-3.5 更可靠、更有创意,并且能够处理更细微的指令。”

GPT-4 的另一项重大进步是能够接受包括文本和照片的输入数据。OpenAI 的示例是要求聊天机器人解释一个笑话,该笑话显示一根笨重的数十年前的计算机电缆插入现代 iPhone 的微型闪电端口。此功能还有助于 GPT 进行不仅仅是文本的测试,但在 ChatGPT Plus 中尚不可用。

另一个是更好的表现,避免出现幻觉等 AI 问题——错误编造的反应,通常提供与 AI 正确答案一样多的看似权威。GPT-4 还可以更好地阻止让它说错话的尝试:“在我们的内部对抗性事实评估中,GPT-4 的得分比我们最新的 GPT-3.5 高 40%,”OpenAI 说。

GPT-4 还添加了新的“可操纵性”选项。今天大型语言模型的用户通常必须参与精心设计的“提示工程”,学习如何在他们的提示中嵌入特定提示以获得正确的响应。GPT-4 添加了一个系统命令选项,允许用户设置特定的语气或风格,例如编程代码或苏格拉底式导师:“你是一个总是以苏格拉底式回应的导师。你从不给学生答案,但总是尝试提出正确的问题,帮助他们学会独立思考。”

“随机鹦鹉”等问题

OpenAI 承认 GPT-4 存在的重大缺陷,尽管它也吹嘘在避免这些缺陷方面取得的进展。

“它有时会犯简单的推理错误……或者在接受用户明显的错误陈述时过于轻信。有时它会像人类一样在难题上失败,例如在它生成的代码中引入安全漏洞,”OpenAI说。此外,“GPT-4 也可能自信地在其预测中犯错,在可能出错时不注意仔细检查工作。”

大型语言模型可以提供令人印象深刻的结果,似乎可以理解大量的主题,并且可以用听起来有点生硬的语言进行交流。不过,从根本上说,LLM AI 并不真正了解任何东西。他们只是能够以统计上非常精确的方式将单词串在一起。

这种统计但从根本上来说有些空洞的知识方法导致研究人员,包括前谷歌人工智能研究人员 Emily Bender 和 Timnit Gebru,警告大型语言模型带来的“随机鹦鹉的危险”。语言模型 AI 倾向于对训练数据中存在的偏见、刻板印象和负面情绪进行编码,而使用这些模型的研究人员和其他人往往会“误认为……实际自然语言理解的性能提升”。

OpenAI 首席执行官 Sam Altman 承认存在问题,但他总体上对 GPT-4 所显示的进展感到满意。“它比以前的模型更有创意,它的幻觉明显减少,而且它的偏见更少。它可以通过律师资格考试并在几门 AP 考试中获得 5 分,”奥特曼周二发推文 说。

对人工智能的一个担忧是学生会用它来作弊,例如在回答论文问题时。这是一个真正的风险,尽管一些教育工作者积极地将法学硕士作为一种工具,如搜索引擎和维基百科。抄袭检测公司正在通过训练自己的检测模型来适应人工智能。其中一家名为Crossplag 的公司周三表示,在测试了 GPT-4 生成的约 50 份文件后,“我们的准确率超过 98.5%。”

OpenAI、微软和英伟达合作

当微软在 2 月份表示它在其 Bing 搜索引擎中使用 GPT 技术时,OpenAI 得到了很大的推动,包括类似于 ChatGPT 的聊天功能。周二,微软表示正在使用 GPT-4 进行 Bing工作。OpenAI 和微软一起对谷歌构成了主要的搜索威胁,但谷歌也拥有自己的大型语言模型技术,包括谷歌正在私下测试的名为 Bard 的聊天机器人。

同样在周二,谷歌宣布将开始对自己的AI 技术进行有限测试,以提高 Gmail 电子邮件和 Google Docs 文字处理文档的编写速度。谷歌表示:“与你的协作人工智能合作伙伴一起,你可以继续完善和编辑,根据需要获得更多建议。”

这种措辞反映了微软对人工智能技术的“副驾驶”定位。考虑到技术问题和谨慎的人为监督的必要性,将其称为对以人为主导的工作的帮助是一种普遍的立场。 

微软使用 GPT 技术来评估人们在 Bing 中输入的搜索结果,并在某些情况下提供更详尽的对话式响应。结果可能比早期的搜索引擎提供更多信息,但是可以作为选项调用的更具对话性的界面存在问题,使其看起来精神错乱。

为了训练 GPT,OpenAI 使用了 Microsoft 的 Azure 云计算服务,包括连接在一起的数千个 Nvidia A100 图形处理单元或 GPU。Azure 现在可以使用 Nvidia 的新 H100 处理器,其中包括用于加速 AI 转换器计算的特定电路。

AI 聊天机器人无处不在

另一家大型语言模型开发商 Anthropic 也在周二推出了一款名为 Claude 的人工智能聊天机器人。这家将谷歌视为投资者的公司为克劳德开了一个候补名单。

“克劳德能够完成各种对话和文本处理任务,同时保持高度的可靠性和可预测性,”Anthropic 在一篇博客文章中说。“克劳德可以帮助处理总结、搜索、创意和协作写作、问答、编码等用例。”

它是不断增长的人群中的一员。中国搜索和科技巨头百度正在开发一款名为 Ernie Bot 的聊天机器人。Meta 是 Facebook 和 Instagram 的母公司,将其 AI 业务整合到一个更大的团队中,并计划在其产品中构建更具生成性的 AI。甚至 Snapchat 也加入了基于 GPT 的聊天机器人 My AI 的游戏。

期待未来更多的改进。

“我们已经完成了 GPT-4 的初始训练很长一段时间,但我们花了很长时间和大量工作才准备好发布它,”Altman 发推文 说。“我们希望您喜欢它,我们非常感谢您对其缺点的反馈。”