首页 > 业界 > 关键词  > OpenAI最新资讯  > 正文

论文作弊器、胡扯生成器?普林斯顿大学教授:它非常有用

2022-12-24 08:32 · 稿源: 凤凰网科技

凤凰网科技讯 北京时间12月23日消息,据彭博社报道,ChatGPT改变了聊天机器人终成智能客服的宿命,它的一个创新之处在于,它不仅能展示类似人类的内容和概念,还可以展示人类工作的结构和设计。这就是为什么学生们在论文中使用ChatGPT作弊,以及为什么专家建议只在小说或娱乐中使用它。普林斯顿大学计算机科学教授Arvind Narayanan在他的博客标题中总结了这一技术,“ChatGPT是一个胡扯生成器。但它仍然非常有用”。

每个应用程序都要求用户描述他们想要看到的东西——比如,一只穿着正装的狐狸在汉堡王用餐——它会把写下的短语变成一件艺术品,然后就出现了ChatGPT,这是一种几乎可以回答任何问题的聊天机器人,它回答的结果通常会令人惊讶与信服。

支撑这些新系统的技术被称为生成式人工智能,因为它可以生成全新的东西,而不是重复软件已经看到的文字或图片。它源于OpenAI在生成预训练转换器(Generative Pre-trained Transformer)上的工作,这是一系列旨在总结文本和回答问题的自然语言处理模型OpenAI于2018年首次发表了这一领域的研究。OpenAI和微软公司的GitHub已经开发出了使用这种技术来帮助编码的工具。结果不是由人类创造的,但它做了一个相当好的模仿,不是艺术或作者,而是两者的模仿。

ChatGPT可以回答后续问题、编写和调试编程代码,以特定作者的风格发布推文,并制作食谱。OpenAI的主要支持者微软(Microsoft)正在将Dall-E添加到其设计软件中,以帮助客户创建图形和社交媒体帖子等内容。Dall-E已经拥有超过600万用户,在预览版发布后的五天内,有超过100万人尝试了ChatGPT。Lensa也是一款应用程序,它使用Stable Diffusion从自拍中创造出奇幻的人工智能化身,在过去几周内迅速走红。

尽管这些应用程序令人印象深刻,但它们存在严重缺陷。除了令人毛骨悚然的手指,Dall-E、Stable Diffusion和GitHub的编码工具也引发了关于版权和未经同意使用内容的问题。ChatGPT有时会吐出令人捧腹的错误,并经常回复一些看似可信但实际错误的答案,只有专家才能发现这种问题。这可能就是为什么OpenAI首席执行官Sam Altman说“在任何重要的事情上依赖它是一个错误”。不过抛开缺陷看,这些进步都将是有意义的。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词: