首页 > 关键词 > 研究发现最新资讯
研究发现

研究发现

在一项新研究中,来自MassGeneralBrighamMESHIncubator的研究人员发现,AI生成式聊天机器人ChatGPT展现出作为管理多药疗法和药物去处方的潜力。这一研究成果发表在《医学系统杂志》上,展示了AI模型在医疗管理中的首个应用案例。未来针对特定训练的AI工具的进一步研究可能会显著提升老年患者的护理水平。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

与“研究发现”的相关热搜词:

相关“研究发现” 的资讯6982篇

  • 研究发现,ChatGPT在老年药物管理中展现潜力

    在一项新研究中,来自MassGeneralBrighamMESHIncubator的研究人员发现,AI生成式聊天机器人ChatGPT展现出作为管理多药疗法和药物去处方的潜力。这一研究成果发表在《医学系统杂志》上,展示了AI模型在医疗管理中的首个应用案例。未来针对特定训练的AI工具的进一步研究可能会显著提升老年患者的护理水平。

  • ​研究发现,GPT-4在说服力方面比人类表现优秀82%

    瑞士洛桑联邦理工学院的研究人员最近进行的一项研究表明,GPT-4在说服力方面比人类表现更出色,优势接近82%,准确来说是81.7%。该研究涉及820人围绕一系列主题展开辩论。人们必须接受有关相信在线信息的危险性的教育。

  • 研究发现:GPT-4在临床推理中表现优于医生,但也更经常出错

    在一项新研究中,美国贝斯以色列医疗中心的科学家们将一种大型语言模型与人类医生进行了临床推理能力的比较。研究人员使用了修订后的IDEA评分,这是一种常用工具,用于评估临床推理能力。尽管这些AI系统还没有准备好用于临床诊断,但仍可能利用这项技术来增强临床工作流程,特别是在保持人类控制的同时确保安全、准确的过程。

  • 研究发现:工作中的 AI、机器人和跟踪器对生活质量产生负面影响

    根据劳动研究所进行的一项开创性研究发现,接触工作中的新技术,包括跟踪器、机器人和基于人工智能的软件对人们的生活质量产生不良影响。这项研究对6000多人进行了调查,分析了四类在整个经济中日益普及的技术对幸福感的影响。主持该评估的资深经济学家ChristopherPissarides教授表示:“随着新技术迅速进入我们的工作生活,了解我们与其互动如何影响我们的生活质量至关重要。

  • 研究发现,用户难以区分AI生成和人类制造的假新闻

    近期一项研究表明,人工智能生成和人类制造的假新闻在用户感知上存在一定差异。来自洛桑大学和慕尼黑大学机器学习中心的研究人员对近千名参与者进行了实验,评估了20篇涉及COVID-19的假新闻,其中一半由人工智能GPT-4生成,另一半来自事实检查网站如PolitiFact和Snopes。这表明在人工智能时代,我们需要更深入地思考如何应对假新闻的挑战,以确保信息的准确性和可信度。

  • DeepMind研究发现提升语言模型推理能力的简单方法

    深度学习领域的研究人员发现,语言模型在逻辑推理方面的表现仍然是一个重要挑战。最新的一项由Google旗下的DeepMind进行的研究揭示了一个简单重要的发现:任务中前提的顺序显著影响语言模型的逻辑推理性能。通过这项研究,我们可以看到改变前提顺序可能是提升语言模型推理能力的一种简单有效的方法,也为未来改进这一领域的研究提供了新的方向。

  • IEEE研究发现:2024年,人工智能将引领科技重大突破

    2024年,全球最大的技术专业组织IEEE的一项新调查显示,人工智能将成为科技领域的佼佼者。该研究涵盖了美国、中国、英国、印度和巴西等国家的350位首席信息官、首席技术官、IT总监和其他技术领导。这项新研究强调了人工智能作为2024年及以后的经济驱动力和技术领导者的地位。

  • IBM研究发现:​ AI语音克隆可劫持合法通话进行诈骗

    IBM研究人员发现了一种相对简单的方法,可以利用生成式AI工具劫持语音通话。这一发现引发了对金融机构等依赖电话验证身份的组织的担忧。这将使聊天机器人困扰,因为它们仍然难以理解基本的会话提示。

  • 研究发现狗也喜欢刷短视频:尤其是狗当主角的视频

    据报道,近日,美国威斯康星大学麦迪逊分校的科学家调查发现,大多数狗都喜欢看视频。特别是1到5分钟的短视频,如果超过20分钟以上,狗狗的关注度就会下降。

  • 麻省理工新研究发现 人工智能不太会取代人类的工作

    麻省理工学院计算机科学与人工智能实验室进行的新研究挑战了之前对人工智能对就业和自动化的预测。尽管许多先前的研究表明,人工智能可能会在未来几年内自动化大量工作,但这项最新研究认为实际情况可能比预期更为缓慢。研究结果强调了人工智能自动化可能比预期更为缓慢的事实,并建议政策制定者和开发人员应认识到这一过程需要数年甚至数十年的时间,从有足够的时间采取相应的政策和措施来应对未来的挑战。

  • 研究发现:谷歌生成式AI搜索引擎占据84%的搜索查询

    最新报告显示,谷歌的人工智能搜索引擎Gen-AI占据了84%的搜索查询,将搜索引擎优化的格局带入了全新的时代。搜索引擎优化市场公司BrightEdge自去年秋季以来一直在追踪Gen-AI搜索引擎的结果,涵盖了医疗保健、电子商务和业务对业务技术等九个行业的1000多个关键词。现在我们都在一个电话会议上,做出更广泛的营销业务决策,以触及受众,无论他们在哪个平台上。

  • 研究发现内脏脂肪越多大脑越小:每增加270克认知衰老0.7年

    据报道,科学研究发现,同样年龄的人,腹部脂肪更多,脑部图像显示出更小的脑容量。美国华盛顿大学等10个科研机构,纳入了10001名参与者,经过全身核磁、计算机深度学习、回归分析等一通复杂操作后,谨慎得出了结论:内脏脂肪越多,大脑越小。预防和控制肥胖症,在维持亚洲人群的认知功能、预防痴呆症及其他慢性病上发挥着重要作用。

  • 研究发现:GPT-3经常出错,重复有害的错误信息

    一项新研究发现,OpenAI的ChatGPT等大型语言模型经常重复阴谋论、有害的刻板印象和其他形式的错误信息。图源备注:图片由AI生成,图片授权服务商Midjourney最近的一项研究中,加拿大滑铁卢大学的研究人员系统地测试了ChatGPT对六个类别的声明的理解。”研究中,研究人员使用了四种不同的调查模板,询问了超过1200个不同的陈述,涵盖了六个类别的事实和错误信息。

  • 研究发现大型 AI 数据集包含虐待儿童图像:该数据集已用于构建流行的人工智能图像生成器,包括 Stable Diffusion

    根据斯坦福互联网观察站周三发布的一项新研究,流行的人工智能图像生成器的基础数据库中隐藏着数千张儿童性虐待图片。作为对这一研究的回应,一些最大和最常用的图像数据库的运营商关闭了对它们的访问权限。LAION的创始人是德国研究员和教师ChristophSchuhmann,他今年早些时候表示,公开提供如此庞大的视觉数据库的部分原因是为了确保AI发展的未来不受少数强大公司的�

  • 研究发现,GPT 和其他 AI 模型无法分析 SEC 备案文件

    一家名为PatronusAI的初创公司的研究人员发现,大型语言模型在分析美国证券交易委员会备案文件时经常无法正确回答问题。即使是表现最佳的人工智能模型配置OpenAI的GPT-4-Turbo,当给予几乎整个备案文件的阅读能力和相关问题时,仅有79%的问题回答正确。你肯定需要至少一个人参与来支持和引导你的工作流程。

  • 研究发现,GPT-4在临床决策中存在潜在种族和性别偏见问题

    来自布里格姆和妇女医院的研究人员对GPT-4在临床决策中是否存在种族和性别偏见进行了评估。虽然大型语言模型如ChatGPT和GPT-4在自动化行政任务、起草临床记录、与患者交流以及支持临床决策方面具有潜力,但初步研究表明,这些模型可能对历史上被边缘化的群体产生不利影响。我们的工作可以帮助引发关于GPT-4在临床决策支持应用中传播偏见的讨论。

  • 研究发现人们难以区分人工智能和人类艺术,但更喜欢人类创作

    根据来自博林格林州立大学的研究,生成式人工智能在确定图像来源方面存在模糊边界,但研究发现人们在潜意识中更偏好真正的人类艺术。博林格林州立大学的工业和组织心理学博士候选人安德鲁·萨莫与杰出研究教授斯科特·海豪斯共同发表了一项关于AI与人类艺术对比的研究,该研究发现人们通常无法区分AI和人类艺术,但他们更偏好后者,即使无法解释原因。研究人员在论文中讨论的一种解释是大脑可能会察觉到由AI创造的艺术中微小的差异。

  • Salesforce研究发现:64%员工将AI生成的工作归为自己成果

    一项由Salesforce进行的研究揭示,64%的使用AI的员工承认曾将AI生成的工作作为自己的成果。这种行为不仅涉及将AI创造的内容冒充为个人工作表现为过度夸大对生成式AI技能的掌握程度,以在职场中获取竞争优势。在这一现象的背后,或许有必要建立更为明确和全面的培训计划,以及在AI使用方面的规范性指导,以确保员工在AI技术的应用中既能发挥创造力,又能保持伦理底线。

  • 研究发现 ChatGPT 在提供特定区域环境正义信息方面存在局限性

    美国弗吉尼亚理工大学最近发布了一份报告,概述了人工智能工具ChatGPT在不同县的环境正义问题上输出结果的潜在偏见。在该报告中,弗吉尼亚理工的研究人员指出,ChatGPT在提供特定区域环境正义问题的信息方面存在局限性。此前Cointelegraph报道称,来自英国和巴西的研究人员发表的一项研究声明,像ChatGPT这样的大型语言模型输出的文本包含可能误导读者的错误和偏见。

  • 研究发现:ChatGPT在回答患者用药问题方面表现不佳

    近期研究测试了ChatGPT回答患者关于药物问题的能力,发现这一人工智能模型的答案在大约75%的情况下是错误或不完整的。这项研究结果于本周在美国药剂师协会的年会上公布,引起了极大关注。”值得注意的是,ChatGPT的使用政策也强调了Grossman医生的看法,指出该模型“未经调整以提供医学信息”,人们在寻求“严重医学状况的诊断或治疗服务”时不应依赖于它。

  • 研究发现:AI和人类生成的在线内容同样被认为可信

    在当今互联网成为许多人获取信息的主要途径的时代,在线内容及其来源的可信度已经达到了一个关键的转折点。由于ChatGPT和GoogleBard等生成人工智能应用的激增,这一担忧变得更为突出。”这仍然是科学传播的任务,更是一项社会和政治挑战,需要唤起用户对人工智能生成内容负责任使用的意识。

  • 研究发现,ChatGPT 能理解和回应人类情感

    自从OpenAI的聊天机器人ChatGPT走红以来,人们对人工智能的兴趣达到了新的高度。虽然AI并不是一个新领域,但它确实是一个相对未被探索的行业,越来越多的公司正在投入资源进行研究。如果真的出现,那将是“伟大的”,因为这将意味着“80亿人都拥有丰富的资源,这将是一个美好的世界”。

  • Midjourney生成能力惊人 但研究发现它并不理解自己生成的东西

    生成式AI模型如GPT-4和Midjourney引发了全球关注,它们展现了惊人的生成能力,能够以令人信服的质量输出文本和视觉内容。人们也开始关注这些模型是否能够理解它们所生成的内容。它为AI研究提供了一个新的视角,鼓励将模型作为人类智能的有趣对立面来研究不是简单地将其视为平行的对立面。

  • 研究发现血型与疾病发生有相关性:A、B、O和AB型谁的风险高

    快科技11月6日消息,今日一则#研究发现血型与疾病的发生有相关性#的话题在微博上引发网友讨论。报道称,多项研究发现,血型跟癌症、心脑血管疾病、糖尿病、消化性溃疡等多种疾病的发生存在一定的关系。那A型、B型、O型和AB型谁的风险更高,或者说有什么区别呢?总结来看,A型血的心脑血管病、癌症风险高;B型血糖尿病风险高;O型血消化性溃疡风险高;AB型血记忆力衰退风�

  • 研究发现,人工智能在评估某些癌症方面比活检更好

    在判断某些癌症的侵袭性方面,人工智能的准确度几乎是活检的两倍,可以挽救数千名患者的生命。癌症每年导致全球1000万人死亡。我们的新方法使用了这种疾病特有的特征,但通过改进算法,这项技术有一天可以改善每年数千名患者的治疗结果。

  • 研究发现AI聊天机器人传播关于黑人的“种族主义”医疗信息

    划重点:-研究表明,流行的AI聊天机器人,如ChatGPT,被发现传播了关于黑人的被证伪的医疗刻板印象。-斯坦福大学的研究人员通过AI聊天机器人提出了九个医学问题,并发现它们返回的答案包含有关黑人的被证伪的医疗观念,包括关于肾脏功能、肺容量的不正确回答,以及关于黑人与白人拥有不同肌肉质量的观点。”高级准备和威胁响应模拟中心的创始人菲尔·西格尔告诉福克斯数字新闻,人工智能系统没有“种族主义”模型,但注意到基于其所利用的信息集的偏见信息。

  • 研究发现“蒙娜丽莎”画作有毒:所使用颜料可破坏神经系统

    达芬奇的经典传世名作《蒙娜丽莎》和《最后的晚餐》竟然有毒?最新研究证明了这一点。它被置于卢浮宫二楼中间的一个大厅,是卢浮宫的镇馆之宝之一,它身上还被冠以众多世界级”的称号:全球最珍贵的艺术珍宝之一,世界上被观看次数最多、报道次数最多的名画之一。

  • 斯坦福研究发现全球最大AI模型Llama 2缺乏透明度

    斯坦福大学最近发布的研究报告指出,全球最大的AI基础模型开发者,包括Meta和OpenAI在内,未能提供足够的关于其潜在社会影响的信息。这一研究名为“基础模型透明度指数”,旨在追踪顶级AI模型开发者是否公开信息,以便了解他们的工作及人们如何使用其系统。这一研究突显了AI行业在透明度方面面临的挑战,以及监管对于促进更多透明度的重要性。

  • 研究发现,GPT-4可信度更高但也更易被“欺骗”

    根据微软支持的研究发现,OpenAI的GPT-4语言模型被认为在可信度上比其前身GPT-3.5更胜一筹,但也更容易受到入侵和偏见的影响。研究团队包括来自伊利诺伊大学厄巴纳-香槟分校、斯坦福大学、加州大学伯克利分校、人工智能安全中心以及微软研究机构的研究人员。美国联邦贸易委员会已经开始调查OpenAI是否存在可能对消费者造成伤害的行为,例如发布虚假信息。

  • 研究发现:BCG咨询师使用GPT-4解决业务问题表现不佳

    一项新研究发现,波士顿咨询集团的咨询师在使用OpenAI的GPT-4解决业务问题时表现不佳,他们的表现比那些没有使用GPT-4的同行差了整整23%。这一发现引发了对于人工智能在业务领域中的实际效用和风险的讨论。这种情况引发了对于知识产权和法律责任的复杂问题。