robots.txt文件应该放置在网站根目录下。比如说,当spider访问一个网站(例如http://www.chinaz.com)时,首先会检查该网站中是否存在http://www.chinaz.com/robots.txt这个文件,如果Spider找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。
@smt-ui/content-component插件在基础库 3.100.4才开始支持,在发布时需要把小程序的最低基础库版本提升到3.100.4之后,具体操作步骤:开发者工具点击发布 - 最低基础库 选择3.100.4之后的版本即可。
因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要数月时间才会清除。另外也请检查您的robots配置是否正确。
如果您的拒绝被收录需求非常急迫,也可以通过反馈中心反馈请求处理。
如果已经使用死链提交工具进行提交后,就不需要设置robots,两种方法二选一即可,建议使用死链提交工具,会提升提交的效率。
tag列表页一般在同一个目录下,比如目录名叫ABC,那么robots就应该是:User-agent:* Disallow:/ABC/
开发者可通过 robots 文件声明小程序中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。仅当您的小程序中包含不希望被搜索引擎收录的内容时,才需要使用 robots.txt 文件。文件上传路径为:智能小程序开发者平台->设置->开发设置->小程序资源抓取设置->点击“设置”按钮->点击“上传协议”按钮。
请检查您的基础库是否在3.60.2以上,开发者工具版本是否在2.40以上。
使用动态库,请确保小程序基础库版本在3.60.2及以上。开发者工具版本在2.4.0及以上
目前暂不支持开发者自行开发动态库,但任何小程序开发者都可以使用已有动态库
当前您可使用的动态库功能: topOne动态库。