modlebas

سوال در مورد نحوه عملکرد و تحلیل مطالب یک سایت در جستجوگر گوگل

17 پست در این موضوع قرار دارد

سلام. من یک سوالی داشتم در مورد عملکرد گوگل در انتخاب یک مطلب و بالا اوردن اون.

من تقریبا تمام مطالب سایتم نمیه اختصاصی و بعضی وقتا اختصاصی هستن.

برای مثال من دیشب یک مطلب 100% اختصاصی و پربازدید در سایت قرار دادم. عکس و متن ها اختصاصی.

امروز نزدیک های ظهر وقتی سرچ زدم تو گوگل. 10 سایت اول کپی همون پست من بود با تغییرات جزیی در متن هایی که انجام داده بودن.

چندموردشون رو از نظر رتبه در گوگل و السکا چک کردم خیلی هاشون بهتر از من بودند و چندتاشون هم ضعیف و برابر سایت من.

میخواستم بدونم. چرا گوگل منی که منبع اصلی هستم را در صفحه دوم میاره؟! مگر سئوکاران عزیزان نمیگن محتوا مهمترین مسله در بالا اومدنه! پس چرا اینطوریه؟

..........................

سایت ما رتبه 3000 داره در الکسا. پیج اتوریتی و دامین 24 -31 داریم. مطالب زیر 1 دقیقه ایندکس میشن.

سایت و قالب ما بهینه شده س.

خیلی خوشحال میشوم دوستان عزیز منو به طور کامل رهنمایی بکنن

 

0

به اشتراک گذاری این پست


لینک به پست

یه چیزی که وجود داره در متن گفتید که متن ها تون رو با کمی ادیت توی سایت هاشون میزارن

و خب قطعا سایت های پربازدید تری هستن نسبت به شما و دیگه مطلب اختصاصی شما محسوب نمیشه از نظر گوگل البته!

حساب گوگل وب مستر رو چک کنید ببینین که اخطاری چیزی براتون نیومده

فایل robots.txt رو هم بزارید اینجا ببینیم به چیا دسترسی دادین و چیا رو بلاک کردین.

1

به اشتراک گذاری این پست


لینک به پست

ارسال شده در (ویرایش شده)

اولا تشکر بابت پاسختون.

عزیز تقریبا سه ماهه که ما حتی یک ارور هم در وبمستر نداشتیم. اینو از این لحاظ گفتم که سعی میکنیم طوری کاری کنیم تا مشکلی نداشته باشیم.

و تا الان هم از مطالب کپی در سایت استفاده نکردیم تقریبا در 500 مطالبی که در سایت قرار دادیم.

اینکه سایت هایی که پربازدید هستن مطالب اونها سریع بالا میاد. پس اینجا حق منی که دارم اختصاصی کار میکنم چیه؟ درسته متن رو ویرایش کردند ولی دوستان سوکاری بودند که اتفاقا توی همین انجمن میگفتند گوگل اینقدر باهوشه که متن کپی و ادیت شده رو تشخیص میده.

ما نمیخواهیم نفر اول باشیم. ولی حداقل جزو 10 سایت که باید باشیم!؟ نه اینکه به عنوان منبع اصلی صفحه دوم و سوم باشیم.

محتوای داخل ربات تکست از همون روز اول به این صورت قرار دادیم.

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Sitemap: http://www.site.ir/sitemap.xml
ویرایش شده در توسط modlebas
0

به اشتراک گذاری این پست


لینک به پست

آدرس سایتتون رو میشه بدید؟
احتمال میدم توی این فایل robots.txt به اشتباه دسترسی دادین

1

به اشتراک گذاری این پست


لینک به پست

دلیلش 200 فاکتور شناخته شده  سئو + رموز  شناحته نشده گوگل

1

به اشتراک گذاری این پست


لینک به پست
در 11 دقیقه قبل، MVahedi گفته است :

آدرس سایتتون رو میشه بدید؟
احتمال میدم توی این فایل robots.txt به اشتباه دسترسی دادین

سایت ما تفریحی و مدل هست. که در زمینه هنرمندان و مدل لباس کار میکنیم. 

مطالب مربوط به هنرمندان رو از اینستاگرامشون و مدل ها رو از سایت های خارجی برمیداریم و ترجمه می کنیم.

و سایت رو هر روز با 5-6 مطلب بروز می کنیم.

 

0

به اشتراک گذاری این پست


لینک به پست
در 5 دقیقه قبل، p47ri0t گفته است :

دلیلش 200 فاکتور شناخته شده  سئو + رموز  شناحته نشده گوگل

میشه لطفا این موارد رو اگر در دسترس هست به ما بدید استفاده کنیم.

ولی تا اونجایی که تونستیم سئو رو رعایت کردیم.

 

0

به اشتراک گذاری این پست


لینک به پست

خدمت شما :

راستی سئو پیچیدگی ها و جزئیات  خاص خودشو داره و  محتوای اختصاصی  بخشی از سئو هستش

1

به اشتراک گذاری این پست


لینک به پست
در 2 ساعت قبل، modlebas گفته است :

Allow: /wp-admin/admin-ajax.php

دوست من آدرس سایتتون رو بدین

یا این فایل محتویاتش رو در اختیار من بزارید

این چیزی که من میبینم شما با این allow کردن تقریبا خزنده ها رو از کار انداختید

تا وقتی که allow نباشه اجازه به همگانی صادر میشه برای خزنده های گوگل

وقتی که allow میزارید فقط به اون موارد تعیین شده در allow اجازه دسترسی دارند

میخوام ببینم این چه فایلی بوده که شما بهش اجازه دسترسی دادید و از چه کد هایی تشکیل شده

1

به اشتراک گذاری این پست


لینک به پست

ارسال شده در (ویرایش شده)

خدمت شما. لطفا مارو در جریان کار بزارید. 

تشکر

001100.txt

ویرایش شده در توسط modlebas
0

به اشتراک گذاری این پست


لینک به پست
در 19 دقیقه قبل، MVahedi گفته است :

دوست من آدرس سایتتون رو بدین

یا این فایل محتویاتش رو در اختیار من بزارید

این چیزی که من میبینم شما با این allow کردن تقریبا خزنده ها رو از کار انداختید

تا وقتی که allow نباشه اجازه به همگانی صادر میشه برای خزنده های گوگل

وقتی که allow میزارید فقط به اون موارد تعیین شده در allow اجازه دسترسی دارند

میخوام ببینم این چه فایلی بوده که شما بهش اجازه دسترسی دادید و از چه کد هایی تشکیل شده

https://yoast.com/dont-block-your-css-and-js-files/

اون فایل مربوط به خود وردپرسه و چون داخل wp-admin  هستش و تو روبوتکس این دایرکتوری بسته شده دوباره دسترسی به فایل مذکور داده شده و مشکلی نداره

2

به اشتراک گذاری این پست


لینک به پست
در ۱ ساعت قبل، p47ri0t گفته است :

https://yoast.com/dont-block-your-css-and-js-files/

اون فایل مربوط به خود وردپرسه و چون داخل wp-admin  هستش و تو روبوتکس این دایرکتوری بسته شده دوباره دسترسی به فایل مذکور داده شده و مشکلی نداره

من والا هنوزم قانع نشدم بابت robots.txt و عملکرد صحیحش

حالا برای اینکه من قانع بشم و ببینیم مشکل از این بابتی که من روش اصرار دارم نیست

صاحب تاپیک لطفا به حساب گوگل وبمستر مراجعه کنند و برن به قسمت block url و در قسمت اول مشخصات فایل رو وارد کنن و قسمت دوم ادرس صفحاتی که مایلن بررسی بشه که درست دسترسی دارن یا خیر

در بخش سومش میتونین یه ربات دیگه علاوه بر ربات خزنده ی گوگل رو انتخاب کنید.

و بعد تست رو بزنین و از نتایجش شات بگیرین و بزارین اینجا تا ببینیم و ابهام منم رفع بشه

1

به اشتراک گذاری این پست


لینک به پست

ولی خب یه چیزی که وجود داره اینه که گوگل الگوریتم های مختلفی داره که مهم ترین هاش پاندا پنگوئن و مرغ مگس خار هستن و به تازگی گورخر ورژن 1 هم من بعضا دیدم

حتما این الگوریتم ها رو از خود سایت گوگل بخونین و با معیار های سایتتون چک کنید. اگه خطایی وجود داشته باشه و سایتتون پنالتی بشه برای هر بازیابی حدودا 10 ماه وقت لازمه

این الگوریتم هایی که بالا گفتم جدا از الگوریتم های بهینه ساز هستن که خیلی بیشتر از این حرفا داره گوگل

سئو مثل بررسی یک کد میمونه با نوت پد وقتی کدتون خطا داره و اجرا نمیشه .. باید تک تک خط ها رو گشت و دنبال این بود که کجا اشتباه شده

حوصله زیاد میخواد و همینطور تمرکز بالا

انشالله موفق باشید.

1

به اشتراک گذاری این پست


لینک به پست

ارسال شده در (ویرایش شده)

برا من که تا الان مشکلی نداشته برا خیلی از سایت های وردپرسی هم :

 

http://namakstan.ir/robots.txt
http://amazing.ir/robots.txt
http://abartazeha.ir/robots.txt

اگه شما اینکارو نکردین بهتره blocked resource رو چک کنید برا من 6000 تا تاپیکمو قبل این بلاک کرده بود

ویرایش شده در توسط p47ri0t
1

به اشتراک گذاری این پست


لینک به پست

در قسمت  blocked resource  فقط یک مورد داریم که اونم مال سایت اپاراته

aparat.com

0

به اشتراک گذاری این پست


لینک به پست
در ۱ ساعت قبل، MVahedi گفته است :

من والا هنوزم قانع نشدم بابت robots.txt و عملکرد صحیحش

حالا برای اینکه من قانع بشم و ببینیم مشکل از این بابتی که من روش اصرار دارم نیست

صاحب تاپیک لطفا به حساب گوگل وبمستر مراجعه کنند و برن به قسمت block url و در قسمت اول مشخصات فایل رو وارد کنن و قسمت دوم ادرس صفحاتی که مایلن بررسی بشه که درست دسترسی دارن یا خیر

در بخش سومش میتونین یه ربات دیگه علاوه بر ربات خزنده ی گوگل رو انتخاب کنید.

و بعد تست رو بزنین و از نتایجش شات بگیرین و بزارین اینجا تا ببینیم و ابهام منم رفع بشه

اگر  منظورتون قسمت robots.txt Tester هستش که ادرس ربات تکست رو با تک تک ربات ها تست کردیم که همه درست بودند

0

به اشتراک گذاری این پست


لینک به پست

نه منظورم اون نیست اون فقط عملکرد ربات شما رو تست میکنه نه محتویات و نه آدرس های بلاک شده رو

1

به اشتراک گذاری این پست


لینک به پست

برای ارسال نظر یک حساب کاربری ایجاد کنید یا وارد حساب خود شوید

برای اینکه بتوانید نظر ارسال کنید نیاز دارید که کاربر سایت شوید

ایجاد یک حساب کاربری

برای حساب کاربری جدید در انجمن ما ثبت نام کنید. عضویت خیلی ساده است !


ثبت نام یک حساب کاربری جدید

ورود به حساب کاربری

دارای حساب کاربری هستید؟ از اینجا وارد شوید


ورود به حساب کاربری