گوگل بعد از این که گفت استفاده از دستورات noindex و disallow کمکی به خارج کردن صفحات از نتایج جستجو نمیکند، راهکارهای دیگری برای این کار معرفی کرد. اگر هم میخواهید صفحههای مشخصی را تست کنید، کافی است آدرس آن را در نوار پایینی وارد کنید و بعد ربات گوگلی که مد نظرتان است را انتخاب کنید. هر بار که دکمه test را بزنید در همان لحظه به شما نشان میدهد اجازه دسترسی رباتها به صفحه را دادهاید یا نه. بهتر است دستورالعملهای هر موتور جستجو را بخوانید تا مطمئن شوید دستوراتی که مینویسید برای همه موتورهای جستجو کار میکند. با استفاده درست از فایل robots.txt می توانید به رباتهای جستجو بگویید که Crawl Budget سایتتان را به درستی مصرف کنند.
چگونه یک فایل robots.txt ایجاد کنیم؟قوانین قالب و مکان1- نام فایل باید robots.txt باشد. فایل robots.txt فقط شبیه یه فایل متنی معمولیه و میتونین یا به ویرایشگر ساده مثل notepad بازکنین. ما شدیدا توصیه میکنیم که اگه فایل robots.txt رو روی سایتتون ندارین فورا یکی ایجاد کنید. دوس دارین ربات وردپرس یا فایلrobots.txtخودتون رو بهینه کنین؟ نمیدونین که چرا و چطور ربات وردپرس نقش مهمی رو برای سئو بازی میکنه؟ پس این مطلب رو تا آخر بخونین. تو این مطلب چگونگی بهینه کردن ربات وردپرس برای سئو و اهمین فایلrobots.txtرو بهتون نشون میدیم.
از استفاده از UTF-8 BOM در فایل robots.txt خودداری کنید
برای مجله خبری تم مارکت و ویرایش فایل ربات در وردپرس یا هر سایت دیگری به فایل منیجر در پنل هاست مراجعه کنید و درون فولدر public_html بدنبال فایل robots.txt بگردید. خوب است بدانید که بصورت پیش فرض این فایل وجود ندارد و برای ویرایش محتوای آن باید یک فایل متنی بصورت robots.txt ایجاد کنید و دستورات لازم را در آن قرار دهید. این دستور به رباتها اجازه میدهد به یک صفحه یا بخش وبسایت دسترسی پیدا کنند. از کاربردهای این دستور زمانی است که شما بخش بزرگی از سایت را بلاک کردهاید و قصد دارید اجازه دسترسی به یک یا چند صفحه از همان بخش به رباتهای خزنده بدهید.
آنالیز تخصصی سئوکار
فایل robots.txt نقش مهمی رو در سراسر عملکرد سئوی سایت شما به عهده داره. بطور اساسی به شما اجازه میده که با موتور جستجو ازتباط برقرار کنید و به اون اجازه بدین که چه قسمت هایی از سایت شما رو باید شاخص گذاری یا index کنه. روش های مختلفی وجود دارد که شما با پیاده سازی آنها در فایل robots.txt می توانید دسترسی موتورهای جستجو به بخش های مختلف سایت خود را فراهم کنید. شما می توانید به موتورهای جستجو بگویید که به فایل ها، صفحات یا لینک های خاصی از وب سایت شما دسترسی نداشته باشند. بعد از ایجاد و یا انجام اصلاحات در فایل ربات، باید از صحت تغییرات خود مطمئن شوید. بهترین روش برای اینکار استفاده از ابزار تست فایل robots.txt گوگل سرچ کنسول است.
- به عنوان مثال شما می توانید از ایندکس شدن محتوای تکراری سایت خود جلوگیری کنید.
- درصورتی که از افزونه یواست برای سئو سایت وردپرسی خود استفاده میکنید، این افزونه برای مدیریت و ویرایش فایل ربات سایتتان یک بخش ویژه را در نظر گرفته است.
- حالا که با مهمترین دستورات مورد نیاز در فایل robots آشنا شدید، بد نیست نکاتی را یادآور شویم که خیلی از وبمستران به اشتباه انجام میدهند و همین اشتباهات کوچک اتفاقات خیلی بدی را در سئو سایت آنها رقم میزند.
- هنوز که هنوز است خیلیها از عملکرد دقیق فایلهای ربات اطلاعی ندارند.
- اگر نیاز به تعلیق موقت خزیدن دارید، توصیه میکنیم برای هر URL در سایت یک کد وضعیت 503 HTTP ارائه دهید.
- در این ویرایشگر صفحه ای را باز کنید و یک برگه خالی را با نام robots.txt ذخیره کنید؛ سپس وارد cPanel شوید و بعد public_html را برای دسترسی به دایرکتوری روت سایت، باز کنید.
هر یک از ساب دامین های وب سایت بایستی دارای فایل robots.txt مختص به خود باشند. به عبارت دیگر blog.example.com و example.com بایستی هر یک دارای فایل robots.txt مجزایی در مسیر خود باشند. در ادامه مثال هایی را از فایل robots.txt برایتان آماده کرده ایم.
آیا تمامی رباتهای موجود در اینترنت از فایل txt پیروی میکنند؟