هر زمان که به وجود ربات گوگل می اندیشم به یاد یک ابر کامپیوتر بسیار پیشرفته و غول آسا میافتم که بدون اینکه لحظه ای را تلف کند در حال خواندن صفحات وبسایت های مختلف است. در حقیقت ربات گوگل یک برنامه پیشرفته کامپیوتری است که دستور دارد به سراغ سایت ها رفته و تولید محتوای آن ها را بررسی نماید. اما این بررسی چگونه اتفاق می افتد؟ چه نتیجه ای را در پی دارد؟ و در چه زمانی اتفاق می افتد؟
ربات خزنده گوگل Crawler نیست، اسپایدرها را ربات های خزنده گوگل می گویند. پیشنهاد می کنم اول کاملا با کراولر و کار هایی که انجام می دهد بپردازیم و بعد از آن در ادامه به اسپایدر ها یا همان ربات خزنده گوگل می پردازیم. زمانی که سایتی را راه اندازی می کنیم، وظیفه Crawler است که به صورت کلی و کامل سایت ما را بررسی کند،تمامی فرآیند هایی که در سئو سایت نیز انجام می دهیم توسط آن قابل مشاهده است. جمع آوری اطلاعات و محتوای سایت، شناسایی حوزه و محیط جغرافیایی کاری سایت، تست سرعت هاستینگ و میزان تعامل وبسایت برخی از کارهایی است که Crawler انجام می دهد. در واقع این برنامه کمک بسیاری به موتور های جست و جو می کند. هر موتور جست و جو می تواند Crawler مخصوص خودش را داشته باشد و با نام های مختلف. به عملی که Crawlers انجام می دهند، Crawl یا خزش می گویند. و اما، کراولر ها در واقع فرمانده اسپایدر ها به حساب میان یعنی این کراولر است که تعیین می کند اسپایدر ها کدام صفحات را بررسی کنند، کدام لینک ها را پیگیری کنند و … . مسئولیت رتبه بندی هر صفحه نیز به عهده Crawler می باشد و اگر در صفحه شما اتفاقی بیوفتند Spider هایی که نیاز باشد را به صفحه شما میفرستد تا کاملا بررسی کنند. البته ناگفته نماند که شما می توانید دسترسی کراولر به بعضی از قسمت های سایت خود را محدود کنید و کراولر اگر قانونمند باشد به این قسمت ها ورود نمی کند. این اسکریپت اتومات طبق الگوریتم های بسیار پیچیده ای که دارد کار می کند و در واقع اصلی ترین کمک کننده به موتورهای جست و جو کراولر ها هستند.
گوگل کراول از طریق لینک ها و URL شناخته شده توسط لینک های دیگر، وارد سایت میشود و محتوا را بررسی میکند. اگر در محتوای خود لینکی را قرار داده باشید، گوگل کراول با برخورد به این لینک، از طریق آن به سایت دیگر هدایت و ان را نیز مورد بررسی قرار میدهد. بنابراین برای افزایش سرعت بررسی کردن محتوا، لینکهای سایت را از از لحاظ معتبر بودن مورد بررسی قرار دهید. اسپایدرهای موتورهای جستجو اگر در بررسی محتوا به مشکل برنخورند و مطالب دارای استانداردهای لازم باشند، به مرحله بعد یعنی Index کردن صفحات منتقل میشود. و بعد از ایندکس کردن با توجه به کیفیت محتوا و عوامل دیگر سایت به رتبه بندی میپردازد. و باتوجه به رتبه ی سایت، جایگاهش در نتایج جستجو مشخص میشود.
قبل از اینکه به تفاوت بین خزش و ایندکس شدن بپردازیم، اول باید توضیح دهیم که ایندکس شدن سایت یا صفحه به چه معناست!خزش صفحه شما به هیچ وجه به معنای ایندکس شدن و پیدا شدن در نتایج جستجوی گوگل نیست. ایندکس (Index) شدن صفحه زمانی اتفاق میافتد که صفحه در نتایج گوگل ظاهر شود. گوگل دقیقا بعد از خزش یک صفحه (اگر آن را شایسته بداند) آن را ایندکس میکند. این بدین معنا نیست که هر سایتی خزش شد ایندکس هم میشود، اما هر سایتی که ایندکس شده حتما خزش هم شده است. اگر گوگل صفحه شما را شایسته نمایش داده شدن بداند، آن را ایندکس خواهد کرد. بعد از ایندکس شدن صفحه شما، گوگل به این فکر میافتد که صفحه شما چطور باید در نتایج جستجو ظاهر شود. در این مرحله، گوگل تصمیم میگیرد که به صفحات سایتتان، چه رتبهای بدهد. رتبهبندی یک صفحه توسط عوامل گوناگونی انجام میشود که بطور کلی علم سئو را شکل میدهد. همچنین هر لینکی که در صفحه وجود داشته باشد، برای خزیده شدن توسط Googlebot برنامهریزی میشود. فقط این لینکها نیستند که خزش میشوند بلکه گفته شده است که Googlebot تا ۵ سایت آن طرف هم خزش میکند.! این بدین معناست که اگر صفحهای به یک صفحه دیگر لینک بدهد که به صفحه دیگری لینک داده بود (که ایندکس شده)، همه آنها خزش خواهند شد.
نتیجه گیری :
در این مقاله به بررسی ربات گوگل یا خزندههای گوگل پرداختیم، اهمیت آن را ذکر کردیم، کاربرد و چگونگی عملکرد آن را شرح دادیم و در انتها نکاتی را جهت بهینهسازی سایت برای این رباتهای موتور جستجوی بیان کردیم. امید است که با استفاده از اطلاعات این مقاله بتوانید سایت خود را برای گوگلبات بهینهسازی کنید و از این طریق خود را به گوگل اثبات کنید تا گوگل نیز شمارا بهعنوان سایتی خوب بپذیرد و در نتایج جستجوی خود وبسایت شمارا در جایگاهی شایسته قرار دهد.