اسفند ۲۱, ۱۳۹۷ Mostafa بدون دیدگاه

سوالات و مشکلات خود را در انجمن مطرح نمایید

در مقالات گذشته نیوسئو، ما به این موضوع پرداختیم که سئو منفی چه چیزی است و چگونه می توانیم مشخص کنیم که آیا فعالیت های سئو منفی به ما ضربه زده است یا خیر. حالا که موضوعات اصلی را یاد گرفته اید، زمان آن رسیده که شما بتوانید سایت خودتان را از حمله های سئو منفی، محافظت کنید و بدانید چگونه نسبت به سئو منفی واکنش نشان دهید و از آن جلوگیری کنید؟

Joe Sinkwitz می گوید هیچ راهی وجود ندارد که مثلا بتوانیم خودمان را نسبت به سئو منفی مصون کنیم. شما فقط می توانید گام هایی را اتخاذ کنید تا احتمال تبدیل شدن به قربانی سئو منفی را کاهش دهید. در ادامه، ما به شما روش هایی را آموزش می دهیم که بتوانید احتمال حمله را کاهش دهید و از سایت خودتان محافظت کنید.

برای شروع، باید چند خبر بد به شما بدهم؛ اصلا روشی وجود ندارد که بتوانید کاملا نسبت به هک، خودتان را مصون کنید.

همچنین هیچ روشی وجود ندارد که بتواند به صورت کامل از شما در مقابل سئو منفی، محافظت کند!

احتمالا کل کاری که می توانیم بکنیم، این است که با کاهش مسیر های حمله، احتمال این که تبدیل به قربانی این فعالیت ها شویم را کم کنیم. به این روش، هر کسی که تلاش دارد به شما آسیب بزند، باید فعالیت های خودش را پیچیده تر کند و در مقایسه با وبسایت های معمولی، تلاش بسیار بیشتری بکند تا بتواند به سایت شما آسیب بزند.

در این بخش از آموزش سئو منفی، ما سئو را در سه بخش مختلف تقسیم می کنیم : محتوا، لینک ها و سیگنال های کاربری. سپس با تمرکز بر روی هر کدام از این ساختار ها و سپس تمرکز بر روی کل سایت شما، تلاش می کنیم تا جهت محافظت از وب سایت شما نسبت به حمله های سئو منفی، موارد مهمی را یادآور شویم:

محتوا و زیر ساختار ها

 

 

  • ملاحظات CMS

همه سیستم های مدیریت محتوا (CMS) مثل هم نیستند. بعضی از آن ها، وقتی شما تلاش می کنید که یک صفحه واحد ایجاد کنید، به صورت خودکار صفحه های مجزای تصاویر را آرشیو و تفکیک می کنند. بعضی از این سیستم ها به صورت خودکار به شما این امکان را می دهند تا قسمت نظر دهی بر روی پست ها را dofollow کنید که این کار مثل یک دعوت نامه برای اسپم ها می باشد.

به دلیل این که اکثریت وبسایت های جهان بر روی وردپرس اجرا می شوند، غیر فعال کردن نظرات، اضافه کردن تگ noindex به صفحه ها، صفحه های آرشیو نویسنده و صفحات دسته بندی، کارهای معقولی می باشند. شاید بعضی با این حرف من مخالف باشند اما تمرکز من بر روی این موضوع است که فقط صفحه های با ارزش را ایندکس و رتبه بندی کنیم و مجموعه ای را ایجاد کنیم که به ندرت صفحه ها را تگ، آرشیو و دسته بندی می کند.

با استفاده از بعضی سیستم های مدیریت محتوای خاص، ما باید حتما مطمئن شویم که به درستی از تگ های canonical استفاده می کنیم تا در روند صفحه بندی و یا سایر مشکلات عبارات جستجو شده، صفحه های تکراری ایجاد نشود.

  • میزبانی وب سایت (هاستینگ)

هاست شما چگونه می تواند شما را از مشکلات این چنینی دور نگاه دارد؟ در واقع هاست شما می تواند کارهای زیادی انجام دهد! من در مباحث مختلف گفته ام که میزبانی وب سایت یکی از حوزه های مرتبط با سیگنال کاربری می باشد، اما در رابطه با هاستینگ سایت، یک عامل بسیار ضروری دیگر هم وجود دارد که باید آن را در نظر بگیریم و آن اعتبار است.

اگر شما بتوانید تمام موضوعات مطرح شده در این مقاله را اجرا کنید، باز هم شما بر روی یک IP مشترک با ده ها دامنه دیگر قرار دارید که ممکن است به خاطر توزیع بد افزار ها flag شده باشند و یا به خاطر سرویس های شناسایی اسپم ایمیل، مسدود شده باشند و یا تحت تاثیر جریمه های دستی گوگل به خاطر لینک های معیوب قرار داشته باشند. به همین خاطر شما ممکن است در شرایط بدی قرار بگیرید!

در کمترین حالت، شما می خواهید مطمئن شوید که یک IP اختصاصی و در حالت ایده آل، یک سرور اختصاصی برای سایت مد نظر خودتان داشته باشید.

آیا داشتن یک سرور هاستینگ اختصاصی مزیت دیگری هم دارد؟ اگر شما یک سرور هاستینگ اختصاصی داشته باشید، مسیر های حمله برای کسانی که تلاش دارند تا سئو منفی را اجرا کنند، کمتر می شود. وقتی که آن ها به هاستینگ شما از طریق دامنه هایی که از نظر ایمنی ضعیف هستند دسترسی ندارند، ایمنی شما نسبت به حمله ها بیشتر می شود.

 

  • سرقت محتوا

قطعا منظور من جلوگیری از سرقت محتوا و یا این نیست که برای محافظت از خودتان، محتوای کس دیگری را سرقت کنید! بلکه دقیقا منظورم برعکس است. شما باید از سرویس های محافظت از محتوا استفاده کنید تا مطمئن شوید که تصاویر و نوشته های شما در هیچ جای دیگری در وبسایت ها بدون اجازه شما، استفاده نشده باشد.

در حالی که اکنون گوگل بهتر می تواند تشخیص دهد منبع اصلی کدام سایت است، هنوز مشکلاتی در رابطه با استفاده از دامنه های معتبر و شناسایی سرقت محتوا مشکلاتی وجود دارد.

یک مهاجم (attacker) تلاش دارد تا به صورت دائم، دامنه هدف را پیمایش کند و معمولا با سرک کشیدن در نقشه سایت آن ها، به هدف خودش می رسد. سپس  هر محتوایی که شما بر روی سایت قرار می دهید، مهاجم در چند ثانیه آن محتوا را بر روی یک هاست پارازیتیک (انگلی) قرار می دهد.

شما باید از سرویس هایی مانند Copyscape یا Plagium استفاده کنید تا این دزدی های محتوا را شناسایی کنید. در صورتی که این مهاجم ها بتوانند محتوای شما را سرقت کنند، احتمالا شما باید با شرکت هاستینگ تماس بگیرید و یک سفارش DMCA یا درخواست تعلیق را ارائه کنید.

لینک های بد

  • لینک های خروجی از طریق محتوای تولید شده توسط کاربر (UGC)

همانطور که در بخش CMS مطرح شد، من خیلی موافق این نیستم که قسمت نظرات را باز بگذارید زیرا معمولا از این قسمت سوء استفاده می شود. اما منابع دیگر UGC، چه منابعی هستند؟

اگر شما یک بخش انجمن یا تالار گفتگو را در سایت خودتان قرار میدهید که کاربر ها می توانند بر روی آن تعامل داشته باشند، پیشنهاد می کنم که از گزینه های زیر استفاده کنید:

  • بر روی تمام لینک های خروجی، از ویژگی nofollow استفاده کنید.
  • تمام لینک های خارجی را از طریق یک صفحه داخلی ریدایرکت کنید تا ارزش لینک خروجی را متمرکز کنید.
  • تمام صفحات Thread تالار گفتمان را Noindex کنید.
  • تمام لینک های خارجی را مدیریت کنید.

 

    • Robots.txt

    من بارها دیده ام که دستکاری robots.txt، مثل یک شمشیر دو لبه می باشد. این حالت، نه فقط به این خاطر است که خیلی اوقات مشکلاتی در این فایل ها وجود دارد که می تواند باعث خارج شدن کل دامنه از ایندکس شود، بلکه گاهی قوانین بسیار سخت گیرانه برای خزنده ها باعث می شود که سایت به مشکل بخورد.

    گاهی ممکن است بر اساس نحوه واکنش گوگل نسبت به اعتبار درونی یک دامنه و کلمات کلیدی مورد استفاده در URL، صفحاتی رتبه بندی شود که شامل یک عبارت نامطلوب در رشتهURL می باشد. مثلا:

    exampledomain.com/directory/undesirablekeywordphrase

    به دلیل این که قوانین robot.txt، مانع این می شود که خزنده های گوگل صفحه را بررسی کنند، گوگل باید به این موضوع اعتماد کند که این صفحه “خوب” است (یا اصلا صفحه وجود دارد) و سپس (معمولا) آن را رتبه بندی می کند.

    این موضوع باعث می شود که سایت های رسانه ای بزرگ بیشتر از دیگر صنایع آسیب ببینند. برای بقیه سایت ها، یکی از بزرگ ترین روش های کاهش ریسک، جلوگیری از ایندکس شدن و کراول شدن صفحه های جستجو می باشد. فارغ از این که از چه CMS استفاده می کنید، شما می توانید از دستور های عمومی زیر استفاده کنید:

    /Disallow: /search

    =Disallow: /*?s

    =Disallow: /*?q

    استفاده از robots.txt، فقط به این هدف نیست که صفحه های کم کیفیت را از ایندکس خارج کنیم. برای تنظیم کردن crawl budget صفحات خودتان، شما می توانید به موتور های جستجو بگویید که صفحات پیش نمایش را کراول نکند. این موضوع تضمین می کند که ربات های خزنده زمان خودشان را هدر ندهند و در تله های عنکبوتی گیر نکنند. انجام این کار در وردپرس، کار آسانی می باشد و ساختار های مورد استفاده برای این صفحات، به صورت زیر است:

    =Disallow: *&preview

    =Disallow: *?p

    =Disallow: *&p

  • لینک های خروجی تزریق شده

ارائه واکنش مناسب نسبت به این موضوع، مستلزم دقت زیادی می باشد زیرا بر اساس تعریف، شما واقعا باید به صورت واکنشی رفتار کنید. اما، شما باید به صورت منظم سرچ کنسول گوگل را بررسی کنید تا ببینید آیا لینک خارجی در سایت وجود دارد که شما آن را قرار نداده باشید یا خیر.

یک روش دیگر برای بررسی لینک های خروجی تزریق شده (injected outbound links) بر روی وبسایت، شامل استفاده از اسکریپت خزنده با user agent های مختلف (گوگل و یا غیر از گوگل) می باشد تا بتوان مشخص کرد آیا لینک یا محتوایی وجود دارد که نباید روی سایت شما قرار داشته باشد یا خیر. این موضوع معمولا با استفاده از نرم افزار های مهندسی معکوس پنهان سازی رفع می شود که با استفاده از این نرم افزار ها، شما می توانید موضوعات تزریق شده به سایت خودتان را از حالت پنهان خارج کنید.

برای انجام این کار، crawler agent خودتان را باید بر روی کروم و یا فایرفاکس تنظیم کنید تا مثل Googlebot عمل کند؛ شما می توانید این کار را یا به صورت دستی انجام دهید و یا از پلاگین User-Agent Switcher استفاده کنید. اگر می خواهید که صفحه های خودتان را مانند گوگل بات و کاربر عادی مشاهده کنید، می توانید به صورت بصری مشخص کنید که آیا لینک های خاصی برای ربات های گوگل قابل مشاهده هستند یا خیر و سپس به صورت موثر، این لینک های تزریق شده را از حالت پنهان خارج کنید.

  • لینک های ورودی

لینک های ورودی از سایت هایی به غیر از سایت خودتان، نسبت به لینک های داخلی سایت خودتان معمولا مشکلات بیشتری را ایجاد می کنند. چرا؟ معلوم است! چون شما نمی توانید کار های دیگران را کنترل کنید.

حالا فقط چند چیز دیگر باقی مانده که باید انجام دهید تا بتوانید خودتان را نسبت به لینک های ورودی بد، محافظت کنید.

  • کلی لینک دریافت کنید: همیشه تلاش کنید تا حدی که می توانید لینک های ورودی با کیفیت زیادی به دست بیاورید و کاری کنید که لینک های با کیفیت، درصد بالایی از شمار کلی لینک های شما را ایجاد کند. می دانم به نظر پیش پا افتاده می آید اما واقعا اگر شما همیشه تلاش کنید بهترین محتوا را ایجاد کنید، همیشه لینک های ورودی خوبی دریافت خواهید کرد. اگر شما فقط چند لینک محدود خوب داشته باشید و کسی از فعالیت های سئو منفی علیه شما استفاده کند، احتمالا چند هزار لینک بد به سمت شما می فرستد و تقریبا به قطع می توان گفت که گوگل نیز واکنش بدی نسبت به سایت شما خواهد داشت. شما با افزایش لینک های با کیفیت خودتان، می توانید تاثیر این حمله ها را تا حد زیادی کاهش دهید.
  • anchor text خودتان را بررسی کنید: یکی از راه های ساده برای سئو منفی، بهینه سازی بیش از حد انکر تکست (anchor text) می باشد بنابراین حتی اگر شما لینک های ورودی بسیار خوبی دارید، حتما حواستان باشد که فقط از تعداد محدودی انکر تکست استفاده نکنید. در صورتی که مشاهده کردید که انکر تکست های شما بیش از حد متمرکز شده است، به دنبال نشانه های سئو منفی بگردید. استفاده از انکر تکست های با عبارت مشابه متعدد یکی از راحت ترین و ساده ترین راه ها برای اجرای فعالیت های سئو منفی می باشد.
  • Disavow کردن: من بارها گفته ام که از ابزار disavow خوشم نمی آید، زیرا با این ابزار شما قبل از این که نسبت به یک خراب بودن یک لینک مطمئن شوید، آن را در گوگل disavow می کنید. اما به دلیل این که این ابزار وجود دارد، احتمالا گاهی شما بر اساس راه حل های ارزیابی ریسک، باید از این ابزار استفاده کنید. به یاد داشته باشید که فقط سایت های غیر اخلاقی خارجی و یا لینک های قمار بازی نیستند که باید آنها را disavow کنید، بلکه لینک هایی که نشان دهنده حمله های کوچک هستند هم باید disavow شوند.
نظرات

قسمت نظرات در حال حاضر غیرفعال می باشد