首页 > 传媒 > 关键词  > 北京卫生法学会最新资讯  > 正文

医渡科技成功承办人工智能医疗治理北京学术沙龙期

2023-04-07 13:47 · 稿源: 站长之家用户

4 月 1 日,由北京卫生法学会大数据与互联网人工智能医疗专业委员会、中国生物医学工程学会医学人工智能分会法律伦理专家组主办、中国医学科学院医学信息研究所医疗卫生法制研究室协办、医渡科技承办的人工智能医疗治理北京学术沙龙第 一期以线上、线下相结合的形式成功举办。

本次会议以“ChatGPT在医疗领域应用的机遇与挑战”为主题,邀请多位来自高校、科研机构、医疗机构、法律以及业界的资 深专家,分别从技术、临床、法律、行业角度,探讨ChatGPT在医疗领域的应用进展及其法律伦理问题。会议由北京卫生法学会大数据与互联网人工智能医疗专委会主任委员 曹艳林、医渡科技CTO兼首席人工智能科学家 闫峻主持。

(左起:北京卫生法学会大数据与互联网人工智能医疗专委会主任委员曹艳林、医渡科技CTO兼首席人工智能科学家闫峻)

曹艳林表示,要积极看待ChatGPT在医学上的应用和挑战,更要在喧嚣中思考,如何找到更好的思路和解决方案,希望人工智能医疗治理北京学术沙龙成为一个促进多方共治、激发新思维、提供解决方案的平台,给大家带来客观、理性、专业的思考和启发。

闫峻介绍道,医疗领域数据孤岛现象严重且质量普遍存在缺陷,让数据价值难以释放,数据集成与治理是领域AI发展必须解决的问题。医渡科技是医疗智能行业头部企业,数据治理是其核心工作之一,通过治理让数据变得可计算。以数据治理为基础,医渡科技构建了一基建(大数据平台及解决方案)、两应用(面向药械研发、健康保险),有着众多且细化的应用场景,都可以通过新技术来提升效率与质量。如何把类似ChatGPT的人工智能技术应用于医疗健康行业,以求达到更专业、更可控的效果,亟待业界进行更深入的思考与探索。

中国医学科学院医学信息研究所副研究员 夏光辉

中国医学科学院医学信息研究所副研究员夏光辉介绍了专门针对医学领域训练的模型,如BioGPT和BioMedLM(PubMed GPT),它们已达到GPT- 4 的水平,能够完成咨询、诊断和教育方面的各种任务,例如阅读医学研究材料并就此进行知情讨论,简要总结内容、提供技术分析、确定相关的先前工作、评估结论以及提出可能的后续研究问题。在技术开拓方面,希望能够进行公开测试和验证,保证模型方法的开放和透明。

北京邮电大学副教授 张成文

ChatGPT为何具有惊人的能力?北京邮电大学副教授张成文认为,主要是ChatGPT出现了涌现能力。当模型规模超过某阈值后,语言模型的能力会急剧提高,涌现能力就会出现。ChatGPT的惊艳表现使众多AI研究者惊喜于LLM(Large Language Model,大型语言模型)带来的超乎预期的结果。LLM是一种深度学习方法,可以从海量数据集中获得知识,进行识别、总结、翻译、预测和生产文本等任务。由于易用性、智能性,ChatLLM正在促进医疗模式的改变,并深入医疗行业,有可能彻底改变医疗的各个流程,实现AI全流程、AI全链条、以患者为中心的必由之路。

北京朝阳医院主任医师 钟光珍

“医教研管防,医生非常忙”,ChatGPT可以成为医生的好帮手,但也要防范它帮倒忙。北京朝阳医院主任医师钟光珍指出,智能工具辅助医生病历书写、影像诊断、诊疗指南内容调取、机器人导航手术(骨科、神经、心内)、素材收集、幻灯制作、文献阅读、润色改写论文、撰写发言稿、批处理文件等等。ChatGPT作为好帮手,能够提有效率、增加准确度;但不可完全依赖它,目前ChatGPT资料陈旧、不准确、片面,也存在伦理和法律等问题有待解决。

如今大型语言模型火热,但就在去年,深度学习的大咖、图灵奖得主YannLeCun对于人工智能前景做了这样的思考:“语言只承载了所有人类知识的一小部分;大部分人类知识、所有动物知识都是非语言的;因此,大语言模型是无法接近人类水平智能的。”国外有呼吁暂停训练比GPT- 4 更强大的AI系统,因为当AI自己修改自己的代码,自我升级进化时,GPT会产生意识。近日,意大利已禁止使用ChatGPT并限制OpenAI处理意大利用户信息。

百度智慧医疗科学家 许言午

ChatGPT对人类是载舟还是覆舟?百度智慧医疗科学家许言午在《ChatGPT冲击下的医疗行业》演讲中谈到,大家对ChatGPT的恐慌是有道理的,但也不用过度恐慌,它对垂类行业的嵌入越来越好,因为它是被作为一个智能引擎在使用,用更好的垂类知识喂它,让它在这个领域里变得更强。ChatGPT+医疗,能够更好地服务大众,在医院端,可进行智能分诊、院内咨询、医患交流、医疗管理,精简流程,节约资源,释放人力,提有效率;在药械企业端,可做行业分析、辅助研发、助力营销和产品售后服务,准确、客观、有效、个性化。

华卫律师事务所律师 童云洪

ChatGPT热潮之下,有关其应用的伦理问题、法律问题,甚至模型所使用数据的合规性问题的讨论也越来越热烈。对此,来自华卫律师事务所的童云洪律师进行了专题讲解,详细分析了ChatGPT应用于医学领域所涉及的主要法律及伦理问题,如责任归属、知识产权问题、滥用等问题。童律师指出,医疗领域人工智能应用应当遵守辅助可控、患者安全、保护隐私、公序良俗等伦理原则。据介绍,联合国教科文组织发布《人工智能伦理建议书》中提出:发展和应用人工智能首先要体现出四大价值,即尊重、保护和提升人权及人类尊严,促进环境与生态系统的发展,保证多样性和包容性,构建和平、公正与相互依存的人类社会。

在讨论环节,与会专家一致认为,要积极拥抱新生事物,ChatGPT是一个工具,能够提高诊疗和科研效率,但要进化到强人工智能阶段还需经历漫长的发展过程,算力、技术、数据,都还需要深厚的积累。其中,数据质量至关重要,人工智能的发展需要大数据的支持,同时也需要专业人士的经验,特别是在复杂情况下,更需要专家的参与和批示。此外,ChatGPT涉及到的隐私安全问题、法律和伦理挑战也需要高度关注。

北京卫生法学会会长 刘宇

在总结环节,北京卫生法学会会长刘宇指出,法律伦理是科技发展必须遵守的行为准则。以ChatGPT为代表的人工智能技术在医学领域的应用和未来发展模式,应在法治轨道上进行,并符合伦理要求。人工智能医疗健康发展需要以政府为主导,加强统筹规范和指导协调,明确责任主体、管理模式,推动构建多方参与的共治体系。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 大家在看

今日大家都在搜的词: