首页 > 业界 > 关键词  > 微软最新资讯  > 正文

微软为Power Apps引入GPT-3自然语言模型 致力改善低代码编程体验

2021-05-26 10:48 · 稿源: cnbeta

与往年相比,今年的微软开发者大会(Build 2021)并没有带来太多的惊喜。即便如此,微软还是发布了一项让广大开发者感到耳目一新的公告 —— 该公司现已在其无代码 / 低代码(no-code / low-code)Power Apps 服务中使用 OpenAI 的大型 GPT-3 自然语言模型,以帮助开发者轻松地将口述文本翻译成最近宣布的 Power Fx 语言代码。

(来自:Microsoft)

当然,微软并非希望大家通过 Power Fx 编程语言来复刻一款 TikTok 之类的应用,而是借助 AI 来丰富基于 Power Apps 之类工具的无代码 / 低代码编程体验。

负责低代码应用程序平台的微软副总裁 Charles Lamanna 表示,借助此类高级 AI 模型,公司可向更广大的受众推广切实有效的无代码 / 低代码开发体验。

举个例子,在开发者讲述“查找以‘孩子’为开头的产品名称”的时候,Power Apps 就能够自动将自然语言翻译成“Filter(‘BC Orders’ Left(‘Product Name’,4)=”Kids”)”。

考虑到微软也是 OpenAI 的大牌支持者,我们对这方面的工作并不感到意外。此外在某种程度上,这与使用 Excel、PowerBI 或 Google Sheets 等工具中提供的自然语言查询函数也没有太大区别。

举报

  • 相关推荐
  • 对标GPT-4代码解释器!港中大让模型代码解决数学难题,得分超越GPT-4

    对标GPT-4代码解释器,港中大最新研究放了个“大招”:他们开发了一个叫做MathCoder的大模型,数学能力直接在竞赛级“题库”Math上超过GPT-4。做到这一点靠的就是无缝集成代码的能力——在遇到数学问题时,它不仅能用自然语言推理能自动编写和执行代码来建模、推导公式与方程。通讯作者为李鸿升,为港中大电子工程系副教授,同时也就职于上海人工智能研究室。

  • PIT框架提升大型语言模型的质量

    传统方法中,提高LLMs性能需要通过人工注释来收集更多多样化和高质量的训练数据,但这是一项资源密集型的任务,尤其是对于专业领域言。为了解决这个问题,来自伊利诺伊大学厄巴纳-香槟分校和Google的研究人员提出了“ImplicitSelf-Improvementframework”。通过从人类偏好数据中学习改进目标,PIT解决了传统提示方法的限制,并展示了在各种数据集和条件下提高LLMs响应质量的有效性。

  • 微软致力于开发使用自然语言处理的 AI 客户服务系统

    微软似乎正在致力于开发一种人工智能系统,可以使用自然语言处理理解和解决客户支持请求。微软公司已经为这一基于人工智能的客户支持系统申请了专利。这个功能通过允许用户使用普通语言轻松地找到文件和照片,使搜索变得轻松。

  • Lakera推出API,保护大型语言模型免受恶意提示攻击

    瑞士初创公司Lakera最近发布了一款旨在保护企业免受大型语言模型的恶意提示攻击的API。这项举措旨在解决LLMs在生成人类语言文本方面的卓越性能,但也可能受到恶意攻击的问题,尤其是通过所谓的“promptinjection”技术。通过将攻击转化为统计结构,Lakera有望在这一领域发挥重要作用,并确保企业可以安全地利用LLM的强大功能。

  • OpenLM:一个专为中等规模语言模型设计的模型训练库

    OpenLM是一个旨在训练中等规模语言模型的PyTorch代码库,它强调了最大化GPU利用率和训练速度的设计。该库已经通过训练OpenLM-1B和OpenLM-7B两个语言模型,分别在1.6T和1.25T的文本标记上进行验证,取得了令人瞩目的成果。OpenLM的团队成员和致谢也在文章中列出,表明了该项目的合作性质和开源精神。

  • 「深呼吸」让大模型表现更佳!谷歌DeepMind利用大语言模型生成Prompt,还是AI更懂AI

    【新智元导读】谷歌DeepMind提出了一个全新的优化框架OPRO,仅通过自然语言描述就可指导大语言模型逐步改进解决方案,实现各类优化任务。「深呼吸,一步一步地解决这个问题。这项研究首次提出并验证了使用大语言模型进行优化的有效性,为利用LLM进行更广泛优化任务提供了框架和经验,是这个新的研究方向的开拓性工作,具有重要意义。

  • GPT-4太烧钱,微软想甩掉OpenAI?曝出Plan B:千块GPU专训「小模型」,开启必应内测

    GPT-4太吃算力,微软被爆内部制定了PlanB,训练更小、成本更低的模型,进摆脱OpenAI。GPT-4太吃算力,连微软也顶不住了!今年,无数场微软AI大会上,CEO纳德拉台前激动地官宣,将GPT-4、DALL·E3整合到微软「全家桶」。毕竟后者对哪些公司可以将其开源LLM进行商业化是有所限制的。

  • ToRA:融合自然语言推理与外部工具 数学推理能力增强

    随着大型语言模型的出现,人工智能和数学问题求解领域取得了显著进展。这些模型在面对复杂的数学挑战时仍然存在问题。对工具交互的优势和挑战进行的全面分析为未来的研究提供了重要见解,有望开发更先进和适应性更强的推理代理。

  • 研究人员发现使用少见语言即可绕过GPT-4的限制

    布朗大学的计算机科学研究人员发现了OpenAI的GPT-4存在的安全性问题。通过使用不常见的语言,如祖鲁语和盖尔语,他们成功绕过了GPT-4的限制性设置。尽管他们意识到这一研究可能会给网络犯罪分子提供想法,但他们仍然认为将这一漏洞公之于众是必要的,因为利用现有的翻译API轻松实施这些攻击,因此那些试图绕过安全防护的恶意行为者最终会发现这一漏洞。

  • 高效编程神器GPT Pilot来了 开发速度提升20倍

    你是否曾想过,如果有一种方式能够让AI为应用程序编写绝大部分代码,你只需负责监督和提供指导,那将是多么美妙的事情?GPTPilot就是这样一款工具,它的核心理念是,AI可以编写应用程序中的大部分代码,但对于剩下的5%,开发者仍然是必不可少的。这将一直持续,直到我们迎来真正的通用人工智能。它代表了未来应用程序开发的新方向,是开发者和AI的完美合作。

今日大家都在搜的词: