首页 > 业界 > 关键词  > DeepSeek最新资讯  > 正文

DeepSeek实习生日薪达上千元 招人不看经验只看能力

2025-01-27 17:26 · 稿源: 快科技

近日,国产大模型 DeepSeek 登顶苹果中国和美国应用商店免费 App 下载排行榜,引领全球 AI 领域浪潮。

深度求索公司现面向社会招贤纳士,职位包括:深度学习研究员、核心算法工程师和资深 UI 设计师,均享有优厚的 14 薪待遇。

其中,核心算法工程师(校招)薪资最高,范围为每月 6 万至 9 万元人民币。其他大部分岗位的起薪均在每月 2 万元以上。

值得注意的是,该公司还招募实习生,其中 AGI 大模型实习生的日薪为 500 元至 1000 元,数据百晓生实习生的日薪为 500 元至 510 元。

据悉,DeepSeek 对人才非常重视,不以经验论英雄,而是注重能力。

DeepSeek 创始人梁文锋表示,追求短期目标固然需要经验丰富的人员,但从长远来看,基础能力、创造力和热情更为重要。

“我们相信,并非只有做过某件事的人才能胜任。我们招聘的原则是看能力,而不是经验。我们的核心技术团队主要由应届生和毕业一两年的年轻人组成。”

这一原则贯穿于 DeepSeek 的团队构建之中,最大特点就是年轻。应届生、在读生,尤其是来自清华北大的应届生在团队中尤为活跃。

面试过 DeepSeek 的应届生评价其招聘风格为:“只招 1% 的天才,去做 99% 中国公司做不到的事情。”

这也使得 DeepSeek 全员上下保持着旺盛的创新动力。

举报

  • 相关推荐
  • DeepSeek大胆披露:理论利润率高达545%!

    今日,DeepSeek正式在知乎平台开设了其官方账号,并发布了一篇名为《DeepSeek-V3/R1推理系统概览》的技术文章。在这篇文章中,DeepSeek首次向公众详细公布了其模型推理系统的优化细节,同时披露了成本利润率的关键信息。在未来的市场竞争中,DeepSeek有望凭借其价格优势和技术实力,赢得更多用户的青睐和支持。

  • 寻找DeepSeek梁文锋

    AI大模型DeepSeek凭借好用、开源、免费三大特点火爆全球,成为史上最快突破3000万日活跃用户的APP,如今当下各行各业都在被DeepSeek化。就是这样一家公司,在爆火之前,外界知之甚少,它极少出现在媒体报道、猎头招聘、同行调研之中,也从未像“AI六小龙”那样激起过市场的水花。但无论如何,DeepSeek打破巨头了在AI领域的叙事,现在投资人们迫切希望在下一个DeepSeek出现之�

  • 广告盯上DeepSeek

    AI搜索加广告,是必然吗?定焦One原创作者|王璐编辑|魏佳DeepSeek们最近因为答案中疑似“夹带”广告被骂了。起因是科普博主“三个老爸实验室”称在腾讯元宝接入的DeepSeek里发现,生成答案中有“建议通过58到家等正规平台比价预约”“建议通过快回收平台或本地正规回收商询价”等广告倾向性内容。需要提醒大家的是,即便有没有广告,AI的回答也不是绝对客观中立。

  • DeepSeek们的成本,是怎么计算的?

    DeepSeek彻底让全球都坐不住了。马斯克携“地球上最聪明的AI”——Gork3在直播中亮相,自称其“推理能力超越目前所有已知模型”,在推理-测试时间得分上,也好于DeepSeekR1、OpenAIo1。大模型的降本速度还会越来越快。

  • 我已确诊为“DeepSeek人格”:勿扰

    可能是AGI迟迟不来、等待“AI更像人/超越人”太辛苦。也或许是“AI代替人类劳动力”的预言太惊悚,吓到了人类。”说到底,AGI还没达到,终究是人被异化了。

  • 人均DeepSeek,自上而下进行时

    席卷全球的「DeepSeek风暴」还在对各行各业进行无差别扫射,打工人的焦虑指数已然爆表。春节假期刚复工,黎阳看到律所的群里接连发来几条有关「AI培训」的信息。每个人都要做好迎接冲击波的准备。

  • 第一本关于DeepSeek的书出现了…

    三言Pro消息DeepSeek在春节期间火爆全网后,三言Pro此前在《第一波利用DeepSeek搞钱的人出现了》中写道,最先用DeepSeek赚到钱的依然是卖课的。一大波草根导师开始售卖DeepSeek课程。若需系统学习,推荐从官方文档和开源社区起步,逐步深入复杂场景非依赖商业化教程。

  • DeepSeek让腾讯阿里重新上桌了

    “领导都认真了”春节复工之后,在深圳一家传统企业担任行政岗位的棘棘,被通知她多了一项工作内容:“用DeepSeek完成部分工作、提升工作效率,部门领导要求每周梳理上报AI工具使用成果。”这让她感到惊讶,“我们是传统行业,虽然之前有使用一些AI技术,但是仅限于研发同事,没有涉及到我们行政部。当DeepSeek指出一条更经济的道路,下场玩家们还要不要继续沉湎于这场有关算力资源的“无限战争”?接下来或许有人会给出更保守的答案。

  • DeepSeek实习生魔改MoE,用迭代机制把内存需求砍了42%,团队:“免费午餐”优化方法

    DeepSeekMoE“变体”来了,200美元以内,内存需求减少17.6-42%!名叫CoE,被认为是一种“免费午餐”优化方法,突破了MoE并行独立处理token、整体参数数量较大需要大量内存资源的局限。与并行处理不同,CoE使专家能在单层内串行通信,形成一种迭代机制,即专家能“沟通”,在其它专家输出之上处理token。OCRRAGEN的贡献者名单中也有ManlingLi、吴佳俊、李飞飞的身影。

  • DeepSeek从入门到精通(1):10分钟用DeepSeek搭建私有化知识库

    DeepSeek的持续火热,吸引了大量个人开发者和企业用户,他们期望借助DeepSeek大模型的强大能力,融合私有知识库,训练出契合自身需求的专属大模型,因此纷纷选择通过云端或本地部署的方式来独立部署DeepSeek。优刻得就为大家带来第一期超实用干货:仅需10分钟,利用UCloud云主机UHostDeepSeekOpen-WebUI快速搭建起属于自己的私有化知识库,轻松开启大模型个性化应用的大门。我们将为您提供基于优刻得模型服务平台DeepSeek-R1,0成本构建智能本地知识库的内容,敬请期待!

热文

  • 3 天
  • 7天