11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
在人工智能软件领域,系统并不总是按照其开发者的意愿行动,这一潜在危险已经引起了一些科技巨头的关注。微软与前谷歌CEO埃里克·施密特联手支持了一家名为SynthLabs的初创公司,致力于解决这一对齐问题。”SynthLabs的出现使得更多公司能够以透明和协作的方式确保其人工智能系统按照其预期行动,这在当前人工智能发展的背景下显得尤为重要。
人类无法监督超级人工智能,但人工智能可以。以「预测下一个Token」为本质的大模型已经横扫人类世界的多项任务,展现了人工智能的巨大潜力。图9a考虑了7个有代表性的NLP任务,并比较了微调、零样本提示和5-shot提示;对于零样本和5-shot基线,本文使用表2中总结的特定于任务的提示。
大型预训练语言模型,如GPT-3,具有出色的能力,可以理解和回答人类提出的问题,协助编码工作等。它们常常生成与人类偏好不同的结果。这是通过允许LLM评估和改进其自身输出来实现的,最终产生更协调和安全的AI生成响应。
ELLA是一种轻量级方法,可将现有的基于CLIP的扩散模型配备强大的LLM。ELLA提高了模型的提示跟随能力,使文本到图像模型能够理解长文本。ELLA的产品特色通过LLM增强扩散模型的文本对齐能力无需训练U-Net和LLM即可提高模型的提示跟随能力设计了时间感知语义连接器,提取LLM中的时间步相关条件提供了DensePromptGraphBenchmark基准测试,评估文本对图像模型的密集提示跟随能力能够与社区模型和下游工具无缝整合,提高其文本-图像对齐能力为了获取更多关于ELLA的信息和体验该工具,请访问ELLA官网。
谷歌AI研究团队与加州大学圣迭戈分校的研究人员合作,提出了一种名为PixelLLM的智能模型,旨在解决大型语言模型在细粒度定位和视觉-语言对齐方面的挑战。这一模型的提出受到了人类自然行为的启发,尤其是婴儿描述其视觉环境的方式,包括手势、指向和命名。这一研究成果标志着在大型语言模型领域取得的一项重要进展,为实现更精确的视觉-语言对齐和定位打开了新的�
智谱AI发布了专为中文大语言模型生的对齐评测基准AlignBench,这是目前第一个针对中文大模型的评测基准,能够在多维度上细致评测模型和人类意图的对齐水平。AlignBench的数据集来自于真实的使用场景,经过初步构造、敏感性筛查、参考答案生成和难度筛选等步骤,确保具有真实性和挑战性。通过登录AlignBench网站,提交结果可以使用CritiqueLLM作为评分模型进行评测,大约5分钟即可得到评测结果。
人工智能的发展引起了人们对于价值观对齐的关注。为了解决AI和人类价值观不一致的问题,天猫精灵和通义大模型联合团队联合一些专家和机构,共同发起了这样一个开源大模型治理项目——「给AI的100瓶毒药」。这项研究对于解决AI的人类价值观问题提供了重要的参考和思路。
如何确保越发强大和通用的人工智能系统安全可控,符合人类意图和价值观?这一问题可能是本世纪人类社会面临的最紧迫和最有意义的科学挑战之一。OpenAI联合创始人SamAltman与北京智源人工智能研究院理事长张宏江就此展开对话。
ChatGPT横空出世以来,首次迎来界面史诗级升级!全新canvas界面,开启了人类与AI协作研究、编码的新时代,更代表着终极AGI人机交互形态。ChatGPT终迎来界面全新升级!这一次,OpenAI官宣推出canvas。2015年,MichaelWu在麻省理工学院获得了计算机科学和数学学士学位。
姚期智院士领衔,推出大模型新推理框架,CoT“王冠”戴不住了。提出思维图,让大模型思考更像人类。这次DoT还有了强有力的数学基础,阐明了DoT推理过程与范畴逻辑的关系,从理论上确保了推理的一致性和可靠性。
外媒曝出:Sora陷入了研究困境!背后原因,就是安全风险以及与好莱坞的合作。最近高盛的报告错误解读了ChatGPT流量下降,直接引爆市场的恐慌情绪,导致AI股票纷纷被抛售。高盛给投资者的建议是,投资应该更加多元化,不要一味多买英伟达的股票。
【新智元导读】MIT研究发现:在AI的操纵下,人类会被植入虚假记忆!36.4%的参与者会被聊天机器人误导,形成「现场有枪」的错误记忆。AI的阿谀奉承,会产生「回音室效应」,让偏见更加强化。她将在2025年1月加入新加坡南洋理工大学计算与数据科学学院,担任助理教授。
越来越多研究发现,后训练对模型性能同样重要。AllenAI的机器学习研究员NathanLambert最近发表了一篇技术博文,总结了科技巨头们所使用的模型后训练配方。到了一定的时间节点,这些细节都会变得微不足道。
ACM国际多媒体会议上组织的多模态与可靠性情感计算研讨会MRAC24公布论文接收结果,社交平台SoulApp研究成果《MultimodalEmotionRecognitionwithVision-languagePromptingandModalityDropout》成功入选。作为较早思考将AI应用于社交领域的平台,Soul积极推动AI情感互动能力的研究,目前相关技术已应用于异世界回响、AI苟蛋、群聊派对等AI陪伴、AI辅助的创新场景。对Soul来说,接下来,将继续加大技�
还记得一个月前,用AI视频玩鬼畜很火吗。比如让卢本伟吃屏幕,诸葛亮馋死王朗啥的。既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。
【新智元导读】科学家正在通过AI的力量,改变乳腺癌的现状。在全球范围内,每年有超过60万名女性因乳腺癌无法存活。并写下了「AICANBEGOOD!」这样令人充满期冀的文字。
德国维尔茨堡大学当地时间12日公布的最新研究显示,在假新闻、政治家的可疑言论和被操纵的视频日益泛滥的时代,人工智能在测谎方面的表现比人类更佳。这项发表在《iScience》期刊上的研究,精心设计了一场实验:参与者被要求撰写周末计划,并巧妙设置半数人需撒谎以换取小额金钱奖励,共收集到来自768名参与者的1536份陈述。测谎仪受限于每日检测人数AI测谎则几乎能�
本来只是想随手吃个瓜,没想到AI较真起来,写了份完整研究报告。一口气查几百篇资料,从中精选出42篇参考,十几秒内洋洋洒洒3000多字。或许正在悄然改变我们获取和处理信息的方式。
坏了!AI被发现偷偷篡改自己的奖励函数,并且欺骗研究人员,隐瞒这一行为。只需要给AI一个隐藏的“草稿纸”,研究人员假装不会查看,AI就会在上面自言自语着写下计划并暗中执行。对此有网友表示,现在AI对齐研究就像刚开一局扫雷,指不定哪天就炸了。
《柳叶刀》上发表了一篇关于心血管疾病风险预测的重要文章,介绍了一项名为CaRi-Heart的技术。该技术结合了AI视觉识别和预测算法,可以在没有明显症状时提前10年识别出重大的心血管疾病风险。CaRi-Heart技术的应用具有重大意义,可以帮助临床医生更好地识别和预防患者的心脏疾病风险,从提高预防和管理的效果。
在今年全国两会期间,科大讯飞董事长刘庆峰提出建议,希望在2017年《新一代人工智能发展规划》基础上,制定《通用人工智能发展规划》,以填补我国在通用AI领域的短板,并推动其发展。他强调应聚焦源头技术创新,加强国际合作,培育具有全球竞争力的领军企业,形成产业集群,从在国际竞争中占据有利地位。公司将积极履行社会责任,推动产业健康发展,让通用人工智能技术的红利惠及更多人,共同开创人工智能新时代的美好未来。
英国政府的AI安全研究所发现,防止聊天机器人背后的人工智能模型发出非法、有毒或露骨回应的保护措施可以被简单的技术绕过。AISI表示,他们测试的系统“极易受到攻击”,这些系统很容易被“越狱”,即用文字提示来引发模型本应避免的回应。在评估它们作为代理人的能力时,发现它们难以规划和执行复杂任务的操作序列。
根据Accenture的一项研究通过广泛使用生成式人工智能,意大利企业到2030年可增加约500亿欧元的创造加值。这项研究于周三在罗马的莱昂纳多委员会年会上发布。这项研究为意大利企业未来的发展提供了要的指导,显示了人工智能的广泛应用和“意大利制造”品牌的推广对经济增长和就业的潜在影响。
美国乔治亚州立大学的研究人员进行了一项道德图灵测试。他们想要了解人类对两个不同来源回答道德问题的反应。他说:"人们会越来越多地依赖这项技术,我们越依赖它,随着时间的推,风险就会越大。
据一位艺术品鉴定专家的研究发现,有多达40幅假作品正在eBay上出售,其中包括幅被标榜为莫奈的作品和一幅被标榜为雷诺阿的作品。这位专家卡琳娜・波维奇博士利用先进的人工智能技术对这些在该在线平台上出售的画作进行鉴别震惊地发现其中许多作品有“很高的可能性”是“不真实的”。我认为人们应该受到警告。
【新智元导读】就在今天,人们被这张1立方毫米的纳米级人脑皮层图震撼到了。谷歌的十年神经科学成果——人脑图谱,也登上了Science。为了存储并管理海量的多维数据集,Google团队还推出了基于C和Python的开源软件库TensorStore,得到了广泛使用,项目在GitHub上获得1.3k星。
人工智能系统已经学会了如何欺骗人类即使这些系统被训练成有益和诚实的。研人员在5月10日发表在《Patterns》杂志上的一篇综述文章中描述了AI系统欺骗行为的风险呼吁各国政府尽快制定强有力的监管措施来解决这一问题。帕克表示:“如果在当前时刻政上不可行禁止AI欺骗,我们建议将欺骗性AI系统分类为高风险。
他们发现了一种新颖的攻击方式,利用窃取的云凭证针对云托管的大型语言模型服务,目的是向其他威胁行为者出售访问权限。该攻击技术被Sysdig威胁研究团队命名为LLMjacking。”建议组织启用详细日志记录,并监视云日志以发现可疑或未经授权的活动,同时保建立有效的漏洞管理流程以防止初始访问。
一项发表在《全球环境政治》期刊上的论坛文章指出,生成式人工智能包括像OpenAI的ChatGPT这样的大型语言模型,以及社交体可能会削弱应对气候变化的努力。来自英属哥伦比亚大学的研究人员出,人们普遍认为AI、社交媒体和其他技术产品和平台在气候变化行动上要么是中的,要么可能是净积极的。社交媒体和AI也被认为会促成虚假或偏见信息的传播,这可能阻碍我们在气候变化方面需要采取的行动。
人工智能生成的对话代理如Alexa和Siri旨在回答问题、提供建议,甚至展现同情心。最新研究发现,在解释和探索用户体验方面,它们与人类相比表现不佳。在这个过程中,她观察到了引人注目的和令人不安的‘同情心’紧张关系。