هنگامی که مجله خبری تم مارکت robots.txt خود را دارید، وقت آن است که آن را زنده کنید. این قانون به Googlebot میگوید که پوشه تصویر وبسایت شما را ایندکس نکند. اگر یک سئو کار حرفه ای نیستید، به هیچ عنوان سمت استفاده از این روش نروید؛ این تکنیک یکی از تکنیک های سئوی کلاه سیاه به حساب می آید و حتما باید توسط افراد حرفه ای و متخصص انجام شود. تمامی حقوق مادی و معنوی این وبسایت متعلق به نوین می باشد و هر گونه کپی برداری پیگرد قانونی دارد.
- فایل robots.txt نقش مهمی رو در سراسر عملکرد سئوی سایت شما به عهده داره.
- گوگل در ابزار سرچ کنسول، ابزاری رایگان به نام robots.txt tester را در دسترس وبمسترها قرار داده است.برای آزمایش فایل خود ابتدا وارد اکانت کنسول جستجوی خود شوید.
- به عنوان مثال گوگل از Googlebot برای جستجوی ارگانیک استفاده می نماید.
- اما در صورتی که این فایل را پیدا نکردید و در آدرس robots.txt/ هم با یک صفحه ناموجود رو به رو شدید، تنها کاری که لازم است انجام دهید، ایجاد یک فایل جدید با پسوند txt و آپلود آن بر روی ریشه اصلی وبسایتتان است.
- گوگل اعلام کرده است یک تگ روبات جدید در آینده پیش روی شما قرار خواهد گرفت که این تگ یرچسب indexifembedded نام دارد.
برخی از موتورهای جستوجو مانند گوگل رباتهای خاص برای خود داند. گوگل رباتهایی دارد که عکس را جستوجو میکنند و رباتهایی نیز دارند که به سراغ محتواها میروند. نیازی نیست برای این دو ربات جداگانه دستورالعمل مشخص کنیم، اما دادن دستورالعمل میتواند، نحوهی خزیدن این رباتها در سایت شما را تنظیم و کنترل کند. بنابراین برای جلوگیری از جمع آوری اطلاعات صفحات غیرضروری سایت و کاهش حجم رفت و آمد رباتها به وب سایت خود حتما باید به فکر ایجاد فایل Robots.txt باشید. جالب اینجاست که بدونین فایل Robots.txt یه فایل متنی ساده هست که در مسیر اصلی فضای سایت شما یا Root Directory قرار می گیره. در واقع وظیفه اصلی این فایل معرفی بخش های قابل دسترسی و بخش های محدود شده برای دسترسی ربات ها یا خزنده های سطح وب که از طرف موتورهای جستجو برای بررسی و ثبت اطلاعات سایت ها به وجود شدن هست.
مثال هایی از ارجاع نقشه سایت در فایل robots.txt
در سئورب، مقالات آموزشی سئو و بررسی و تحلیل برخی از سایت ها را از نظر سئو انجام میدهیم. ما با سئورب، سایتی که در زمینه آموزش سئو است، از سال 96 کار خودمان رو شروع کردیم. اگر مطمئن نیستید که Robots.txt را دارید یا نه میتوانید به سادگی در انتهای آدرس سایت خود یک Robots.txt را تایپ کنید تا مشخص شود که سایت شما دارای این فایل است یا خیر. فقط کافی است در انتهای آدرس یک سایت کلمه Robots.txt را قرار دهید تا این فایل را برای شما نشان دهد.
مهمترین دستورات فایل ربات و نحوه استفاده از آنها
علاوه بر اینها، حجم زیادی از ترافیک و منابع هاست و سرور ما هم صرف پاسخگویی به رباتها میشود که بسیاری از این درخواستها بدون سود و تنها مضر هستند و الکی منابع سایت ما را هدر میدهند. برای درک بهتر نقش فایل ربات در سایت، علائم راهنمایی و رانندگی را در ذهنتان تجسم کنید. ربات های گوگل را تحت اختیار خودت بگیر، بهشون دستور بده و بگو چکار کنند. همراه من باش تا بهت بگویم که چه طوری ربات های گوگل را تحت اختیار خودت بگیری. با گذشت حدود 15 روز دیروز به صورت ناگهانی توی وبمستر حدود 1000 عدد ایندکسمون حذف شدن. بعد بررسی متوجه شدم همه ایندکس های حذف شده مربوط به tag ها بودن .
در نتیجه، آدرس URL و احتمالاً سایر اطلاعات عمومی در دسترس مانند متن انکرتکست در پیوندهای صفحه همچنان می توانند در نتایج جستجوی Google ظاهر شوند. برای جلوگیری از نمایش صحیح URL خود در نتایج جستجوی Google، از فایل های سرور خود با رمز عبور محافظت کنید ، باز هم تاکید میکنیم از متای noindex برای حذف کامل استفاده کنید. فایل Robots.txt در حقیقت به رباتها اطلاع میدهد که کجا میتوانند فایل یا فایلهای نقشه سایت XML را پیدا کنند و در این میان کدام صفحات نباید کراول شوند. قبل از اینکه رباتهای موتورهای جستجو نظیر گوگل صفحات وب را کراول کنند ابتدا فایل Robots.txt را بررسی میکنند و اگر این فایل موجود باشد مطابق با اطلاعات مندرج در آن اقدام به ایندکس کردن صفحات میکنند. بنابراین اگر دستورالعمل هایی را برای همه ربات ها در نظر گرفته اید و به دنبال آن دستورالعمل هایی برای یک ربات خاص مد نظرتان است باید بدانید که تنها این دستورالعمل های خاص توسط موتورهای جستجو مورد توجه قرار می گیرند.