رفتن به مطلب

بررسی robots.txt پیشرفته برای جلوگیری از duplicate content


A . S

پست های پیشنهاد شده

همانطور که متن سوال نشون میده ، من تعداد بسیار زیادی duplicate content تو گوگل دارم  ، که همشون از طریق query ها ایجاد شده

به این تصویر دقت کنید !

با اینکه گوگل تمام query parameter هارو میشناسه ، اما همچنان duplicate ها بسیار زیادن 
حالا سوال من اینه ، آیا این پارامتر هارو تو robots.txt ببندم که کلا واردشون نشه ؟ 
مثل این فایل روبوت : 

User-agent: *
Disallow: /wp-admin/
Disallow: /*?mweb*
Disallow: /*?product_cat*
Disallow: /*?product_tag*
Disallow: /*?source_id*
Disallow: /*?orderby*
Disallow: /*?product_order*
Disallow: /*?product_count*
Disallow: /*?page_size*
Disallow: /?add-to-cart*
Allow: /wp-admin/admin-ajax.php

 

و یا کلا هر چی "؟" داره رو ببندم !؟

User-agent: *
Disallow: /wp-admin/
Disallow: /*?*
Allow: /wp-admin/admin-ajax.php

و یا نه

کلا کاری با robots.txt نداشته باشم و توی گوگل تو بخش URL Parameters مشخص کنم که به اینها کاری نداشته باشه ؟ توی این بخش هم تمام پارامترهارو شناخته
چطور با این نوع duplicate content توی وردپرس برخورد کنیم ؟!

تصویر url parameter ها

لینک به ارسال

به گفتگو بپیوندید

هم اکنون می توانید مطلب خود را ارسال نمایید و بعداً ثبت نام کنید. اگر حساب کاربری دارید، برای ارسال با حساب کاربری خود اکنون وارد شوید .

مهمان
ارسال پاسخ به این موضوع ...

×   شما در حال چسباندن محتوایی با قالب بندی هستید.   حذف قالب بندی

  تنها استفاده از 75 اموجی مجاز می باشد.

×   لینک شما به صورت اتوماتیک جای گذاری شد.   نمایش به صورت لینک

×   محتوای قبلی شما بازگردانی شد.   پاک کردن محتوای ویرایشگر

×   شما مستقیما نمی توانید تصویر خود را قرار دهید. یا آن را اینجا بارگذاری کنید یا از یک URL قرار دهید.

×
×
  • اضافه کردن...