MY MENU

Ask your every questions in Dubuplus

DUBUPLUS
CUSTOMER SUPPORT

SEO และสถิติ

SEO & Statistics

SEO & Statistics

หัวข้อ
How to handle Search Robots
ผู้เขียน
관리자
วันที่สร้าง
01/02/2018
สิ่งที่แนบมา0
ดู
2203
เนื้อหา


STEP01. Effective Use of robots.txt

 

1. What is the effective use of robots.txt?


A robots.txt file is used to control the search engine traffic by letting search engines know the parts to access to the website and crawl. So if you don’t want certain pages to be exposed to search engine results, you can control them with robots.txt.

If your website is not exposed in search, check robots.txt settings first.

 


2. Recommendations for effective use of robots.txt


Avoid excessive robots.txt settings

Use safer methods for sensitive contents.

Use free tools for webmasters

 

3. Setting robots.txt


Set robots.txt in [Manage Mode] – [Preferences] – [Site Management] – [Settings for SEO/SNS Sharing]







คัดลอก URL

เลือก URL ทั้งหมดด้านล่างเพื่อคัดลอก

แก้ไขข้อคิดเห็น

ป้อนรหัสผ่านของคุณเพื่อแก้ไขโพสต์

ลบความคิดเห็นลบโพสต์

ป้อนรหัสผ่านเพื่อลบโพสต์