Danh mục
Thể loại
Địa điểm
Phản hồi mới nhất
Thống kê

*

Đang xem: 53

*

Truy cập: 31,740,555

*

Bài viết: 17,286

*

Phản hồi: 6,705

*

Thành viên: 6,315

Cách bảo vệ blog

No Rank

No Rank

0

Backlink: 0 -

Hướng dẫn các bạn tránh lỗi duplicate content cho WordPress bằng cách xử lí file robots.txt



Robots.txt rất có lợi trong việc “điều hướng” con Bot index site chúng ta. Với robots.txt bạn có thể cho phép hoặc không cho phép search engine index blog hoặc 1 phần blog bạn dễ dàng chỉ với 1 dòng lệnh.

Bài viết này hướng dẫn các bạn dùng robots.txt để chặn không cho Google index 1 vài thành phần của blog – điều dẫn tới Duplicate content.

1. Vào Google Webmaster Tools ( các bước đăng nhập, đăng kí, add site,… thì tìm hiểu ở các bài cũ nhé )

2. Vào Site Configuration > Crawler Access > Generate robots.txt

3. Nhìn xuống phần Specify additional rules (optional) , ở đây bạn có thể tùy chỉnh Allow hay Block thành phần nào của trang web. Theo bài viết này thì tránh duplicate content nên chúng ta chọn

Action là Block
User-Agent: ALL
Dicrectory and Files: nhập các path bạn không muốn Google index, cụ thể trg hợp này là các thư mục như wp-admin, wp-content, wp-includes,…..

4. Sau đó download rồi upload lên thư mục chính (root).

Để cho đơn giản, các bạn có thể tải robots.txt sau rồi upload lên host là xong, đỡ phải xem các bước trên

Họ tên: lythi_camthuy

Số điện thoại: 01666757907

Email: lythi_camthuy@yahoo.com.vn

Gửi lúc 18:45 30/12/2011

lythi_camthuy

Các bài khác