هر وب سایت برای کسب رتبه مطلوب در صفحه نتایج موتور جستجوگر گوگل توسط رباتهای مختلف و به طور روزانه مورد بررسی قرار میگیرد. این رباتها به صورت خودکار تمامی صفحات یک سایت را بازدید کرده و آنها را به لحاظ ساختاری و فنی ارزیابی میکنند و سپس صفحات بازدید شده را در صفحه نتایج جستجو نمایش میدهند. اما هر وب سایت دارای برخی صفحات عمومی و یا محرمانهای است که نمایش آنها در صفحه نتایج جستجو هیچ ضرورتی ندارد و حتی ممکن است به سئو سایت لطمه وارد کند. در حقیقت این امکان را فراهم می کنیم که صفحات اصلی در ساختار سایت بیشتر مورد توجه گوگل بوده و بررسی شوند.
موقعیت و نام فایل
در صورتی که شما هم قصد دارید تا سئو سایت خود را به صورت کاملا حرفه ای بهینه سازی کنید بهتر است که با تمامی جنبه های مختلف فایل robots.txt آشنا شوید و از نیروهای متخصص برای پیاده سازی این فایل استفاده کنید. در حال حاضر موتور جستجوی گوگل از حداکثر سایز 500 کیلوبایت برای فایل robots.txt پشتیبانی می کند. در زمان پیاده سازی این قطعه کد در فایل robots.txt توجه داشته باشید که این کار باعث قطع شدن دسترسی تمامی ربات های گوگل می شود.
فایل robots.txt دقیقاً چه کاری انجام می دهد؟
این قضیه از الگوریتم پاندای گوگل شروع شد و به راحتی می توان به آن اشاره کرد که هرگز فایل های سی اس اس یا جاوا اسکریپت شما را مورد بررسی قرار ندهد. اگر از افزونه یوآست در سئوی وب سایت وردپرسی خود استفاده می کنید، پیشنهاد می کنیم به نوشته نحوه افزودن کلمه کلیدی و توضیحات متا در وردپرس نیز نگاهی بیاندازید. کلیه سایتها برای ایندکس شدن توسط موتورهای جستجوی به فایل robots.txt نیاز دارند.
- در واقع در این مثال موتورهای جستجو به لینک گفته شده دسترسی پیدا می کنند.
- رباتها در واقع نرمافزارهایی هستند که به صورت خودکار صفحههای مختلف را باز و بررسی میکنند.
- بنده پیشنهاد می کنم برای این کار از افزونه استفاده نکنید و صفحات را با دستور htaccess ریدایرکت کنید تا یک بار برای همیشه این مشکل را حل کنید چون همونطور که گفتم افزونه ها ممکن است در این تعداد صفحات دچار مشکل شوند.
- Wildcard امروزه توسط موتورهای جستجویی مانند گوگل، یاهو، بینگ و Ask پشتیبانی می شود.
- بنابراین اگر سایت شما است فایل robots.txt باید در آدرس example.com/robots.txt قابل دسترسی باشد.
- در این حالت یکی از راه حلهای پیشنهادی گوگل، استفاده از تگ noindex در هدر صفحه مورد نظر است.
این ربات ها شامل ربات هایی می شوند که به دنبال اخبار یا تصاویر در وب سایت های مختلف هستند. یکی از مهم ترین نکات در زمان کار کردن با فایل robots.txt این است که روی تغییراتی که در این فایل اعمال می کنید نظارت کامل داشته باشید. برای این که یک ربات خاص نیز از دستورالعمل های عمومی تمامی ربات ها پیروی کند باید این دستورالعمل ها را برای ربات خاص مد نظر خود نیز تکرار کنید.
وقتی این درخواستها از حد توان مجله خبری تم مارکت سایت ما خارج شوند اتفاق از دسترس خارج شدن سایت رخ میدهد. تگ ها و برچسب هایی که محتوای تکراری را در سایت ایجاد می کنند. البته شما بهعنوان مدیر سایت میتوانید از افزونه WordPress SEO by Yoast جهت عدم نمایش دستهبندی سایت در ایندکس شدن صفحهنمایش صفحههایی که ساختهشدهاند استفاده کنید. Lazy loading یکی از تکنیکهایی است که به بهبود سرعت و سئوی سایت شما کمک میکند. و دیگر فایلهای مشابه را بلاک کنید، ممکن است سایت شما به صورت مناسب بارگذاری نشود و این مسئله نیز میتواند باعث ایجاد خطا شده و در ایندکس شدن دیگر صفحات سایت شما تأثیر منفی بگذارد.