首页 > 动态 > 关键词  > 北京网约车最新资讯  > 正文

北京网约车意见征求结束 焦点问题会有微调

2016-10-16 12:43 · 稿源: TechWeb.com.cn

TechWeb报道 最近全国多个城市和地区公布了网约车管理细则征求意见稿,北京和上海的管理细则因为提出了“本地车,本地人”的要求,被看作是最为严厉的网约车管理办法。北京网约车实施细则征求意见稿实际上近年来网约车的兴起让老百姓享受到方便的同时也刺激了传统出租汽车行业,并

......

本文由站长之家合作伙伴自媒体作者“TechWeb.com.cn”授权发布于站长之家平台,本平台仅提供信息索引服务。由于内容发布时间超过平台更新维护时间,为了保证文章信息的及时性,内容观点的准确性,平台将不提供完全的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请查看原文,获取内容详情。

举报

  • 相关推荐
  • 货拉拉入驻支付宝出行:搬家拉货像打网约车一样方便

    货拉拉入驻支付宝出行。用户通过支付宝首页点击“出行-打车”,即可进入货拉拉小程序,呼叫“拉货搬家”更便捷。支付宝出行已为用户提供网约车、顺风车、代驾等多项用车服务,此次打车新增“拉货搬家”服务,将进一步满足用户特色用车需求。

  • 女子早高峰打车误机:遂起诉司机和网约车平台

    王女士在某网约车平台约车,司机赵师傅接单。然直到8点46分,王女士才坐上出租车。但是本案中,司机在接单时无法预见到,不存在故意耽误王女士行程的行为,不能要求承运人予以赔偿。

  • 交通运输部:对5至7座汽车非法从事网约车经营进行精准打击

    日前,交通运输部办公厅发布《关于开展道路运输安全生产突出问题集中整治百日行动”的通知》。其中提出,精准打击客运非法违规运营。提升驾驶员在车辆爆胎、起火、碰撞、落水,以及湿滑路面行驶、长大下坡制动失效、突遇自然灾害、紧急躲避障碍物等场景下的应急处置操作能力。

  • 高德向百家网约车平台开放安全出行大模型能力

    高德地图联合百家网约车平台发起了名为“放心选安心坐”的服务行动。该行动旨在通过开放安全出行大模型、车费保镖、五星平台服务标识等能力,为消费者提供更安全、可靠的网约车服务。目前已有100多家网约车平台接入安全出行大模型,每日完成道路安全预警超1000万次,驾驶员超速率下降18.4%。

  • 前国脚宋黎辉开网约车?一年超5000单 本人回应:靠自己努力挣钱养家挺好

    10月2日消息,近日,有球迷在济南打网约车时,惊奇的发现司机竟是前国脚宋黎辉,当时他还穿着鲁能球服,引发网友关注。网约车APP显示,宋黎辉服务天数364天,服务单量5589单,平均每天超15单。据报道,宋黎辉回应称当天确实是自己在开网约车,他表示:开网约车是临时为司机顶班,足球是我的本职工作。网约车司机很辛苦,靠自己努力挣钱养家,挺好的。”有网友称:宋导自己搞了五辆网约车,有一个司机到期了,车还没有租出去呢,他自己先开着。”公开资料显示,宋黎辉,1974年11月15日出生,前中国男子足球运动员,司职中场。曾效力山东鲁?

  • 《生成式人工智能服务安全基本要求》公开征求意见

    据全国信息安全标准化技术委员会网站消息,全国信息安全标准化技术委员会组织制定的技术文件《生成式人工智能服务安全基本要求》已形成征求意见稿。根据《全国信息安全标准化技术委员会技术文件制订工作程序》,现将该技术文件面向社会公开征求意见,如有意见或建议请于2023年10月25日24:00前反馈秘书处。《生成式人工智能服务安全基本要求》给出了生成式人工智能�

  • 快手亮相首届北京网络视听艺术大会 为传统文化发展传承提供新舞台

    9 月 25 日- 26 日,以“新领域新文艺·好内容创未来”为主题的首届北京网络视听艺术大会举行。作为支持单位,快手深度参与本次大会。快手科技联合创始人杨远熙受邀出席大会开幕式暨高峰研讨,并发表《网络视听艺术助力传统文化发展与传承:快手直播提供新舞台》主题演讲,分享快手在助力传统文化发展与传承方面的理念与实践。快手同时参与大会网络视听艺术系列活动

  • 需求巨大的“网约护士”,被困在供给里

    北京零下几度的天气渗着刺骨的寒冷,魏丽陪同母亲到医院排队打针。冷风灌入楼道,空气又冰了几分,62岁的老人将厚重的衣物一件件地解开、脱下,直至露出赤裸的胳膊。“平常心,一件事一件事解决,继续前行。

  • OpenPipe开源:将昂贵的提示转化为廉价的微调模型

    OpenPipe是一个创新的AI工具,旨在将昂贵的语言模型的强大能力与更便宜的模型相结合,以满足用户的精确需求。它的核心思想是利用强大但昂贵的大型语言模型进行微调,生成适合特定需求的廉价模型。多种训练数据导出格式:支持导出多种训练数据格式,包括Alpaca和ChatGPT,同时具备去重功能,使数据准备更加高效。

  • 0.2美元微调就能让ChatGPT彻底破防!普林斯顿、斯坦福发布LLM风险预警:普通用户微调也影响LLM安全性

    【新智元导读】微调LLM需谨慎,用良性数据、微调后角色扮演等都会破坏LLM对齐性能!学习调大了还会继续提高风险!虽说预训练语言模型可以在零样本设置下,对新任务实现非常好的泛化性能,但在现实应用时,往往还需要针对特定用例对模型进行微调。微调后的模型安全性如何?是否会遗忘之前接受的对齐训练吗?面向用户时是否会输出有害内容?提供LLM服务的厂商也需要考虑到,当给终端用户开放模型微调权限后,安全性是否会下降?最近,普林斯顿大学、IBM、斯坦福等机构通过redteam实验证明,只需要几个恶意样本即可大幅降低预训练模型的安全性,甚至普通用户的微调也会影响模型的安全性。不管真正的原因是什么,研究人员假设,如果能够在未来的对齐工作中巩固那些不太稳健的危害类别,可能能够进一步提高良性微调情况下的整体安全性。

今日大家都在搜的词: