در این قسمت تیم کدگیت را با آموزش «جستجو گوگل چگونه کار میکند» همراهی کنید. در این جلسه به توضیح مراحلی که گوگل طی می کند تا صفحات سایتهای مختلف را به لیست جستجوی خود اضافه کند، خواهیم پرداخت. پیشنهاد میکنیم آموزشهای جلسه گذشته در خصوص سئو را مطالعه نمایید:
جستجو گوگل چگونه کار میکند؟
روزانه میلیونها جستجو در موتورهای جستجو رخ میدهد که گوگل سهم بسزایی از این جستجوها را شامل میشود. سوالی که برای همه ممکن است پیشآمده باشد این است که چگونه گوگل سایتها را شناسایی و آن را به ما نشان میدهد. جالب است بدانید تمامی مراحل برای شناسایی یک سایت یا لینک توسط گوگل به صورت اتوماتیک است. حتی خیلی از سایتهایی که در نتایج گوگل میبینید ثبت نامی در گوگل انجام ندادهاند و توسط گوگل شناسایی شدهاند. با این تفاسیر، گوگل شناسایی را چگونه انجام میدهد؟ پاسخ به این سوال در مراحل زیر نهفته است:
- Crawling یا خزش: گوگل فایلها، تصاویر، متنها و … سایت شما را به صورت اتوماتیک دانلود میکند. به این فرآیند خزش یا Crawler میگویند.
- Indexing: به فرآیند بررسی و آنالیز فایلها، متنها، تصاویر و … سایتها توسط گوگل و ذخیزه سازی آن در گوگل Index (google index)، indexing گفته میشود.
- نمایش نتایج: وقتی جستجویی توسط کاربر انجام میشود گوگل نتایج مرتبط را با توجه به واژههای جستجو انجام گردیده، نشان میدهد.
URL Discovery
مرحله اول که گوگل باید طی کند پاسخ به این سوال است «چه صفحاتی در وب موجود میباشد؟». برای این کار گوگل مدام به بررسی سایتهای شناخته شده میپردازد و صفحات جدید را ذخیره میکند. به این فرآیند «URL Discovery» میگویند. برخی از صفحات برای گوگل آشنا هستند و گوگل با بررسی آنها و دنبال کردن لینک آنها، صفحات جدید را پیدا کرده و آنها را به لیست خود اضافه میکند. به عنوان مثال در یک صفحه که از دستهبندی محصولات بوده، لیستی از جدیدترین پستهای بلاگ نیز وجود دارد. گوگل با دنبال کردن این لینک، مطالب وبلاگ را نیز میتواند به لیست خود اضافه کند. البته به یاد داشته باشید اگر برخی از صفحات پیدا نشد، از طریق سایت مپ یا sitemap شناسایی خواهند شد. در جلسه گذشته سایت مپ در سئو توضیح دادیم.
Crawler
پس از پیدا کردن URL سایت توسط گوگل، این موتور جستجو اقدام به ملاقات (خزش یا Crawl) URL میکند. در گوگل میلیونها کامپیوتر وجود دارد تا فرآیند خزش را انجام دهند. برنامهای که این فرآیند را انجام میدهد Googlebot نام دارد. Googlebot از الگوریتمهایی برای انتخاب سایتهای که خزش شوند یا میزان خزش در سایت و حتی هر چند مدت یک بار هر سایت خزش شود، استفاده میکند. جالب است بدانید خزشگرهای گوگل طوری برنامهریزی شدهاند که بر روی سایتها فشار ترافیکی زیادی وارد نشود و در صورت مشاهده چنین مواردی خزش را متوقف و به آینده موکول میکنند.
گوگل تمامی صفحات سایتها را بررسی نمیکند. مثلاً برخی صفحات سایت توسط صاحب آن بسته شده و مجوز دسترسی ندارند و یا بررسی برخی صفحات سایت، بدون اطلاعات کاربری امکان پذیر نیست. صفحات تکراری یا duplicate دیگر صفحاتی هستند که گوگل آنها را بررسی نمیکند.
Indexing
بعد از خزش صفحات سایت، گوگل به بررسی محتوای صفحات میپردازد. این مرحله indexing نام دارد. در این مرحله محتوای متنی و محتوای کلیدی مانند tagهای title و image و … مورد بررسی و تحلیل قرار میگیرد. در این مرحله مطالب صفحات duplicate یا تکراری نیز مشخص میشود. همچنین در این مرحله صفحاتی که canonical هستند نیز تشخیص و از صفحات مشابه جدا میشوند(صفحات canonical: بهترین صفحهای از لحاظ محتوا در بین صفحات تکراری است). به طور کلی میتوان گفت indexing مرحله مهمی است و در تعیین جایگاه سئو سایت بسیار اهمیت دارد. بزرگترین اشتباهاتی که در این مرحله طراحان سایت انجام میدهند به شرح زیر است:
- کیفیت پایین محتوای صفحات سایت موجب تاثیر منفی در indexing می شود.
- ایجاد برخی metaها در صفحات سایت جهت index نکردن صفحات سایت در گوگل.
- ظاهر و دیزاین نامناسب سایت موجب رتبه پایین سایت در indexing خواهد شد.
نمایش نتیجه
پس از گذشتن از مراحل Crawling و indexing، میتوان گفت بررسی صفحات سایت شما به اتمام رسیده و در صورت پذیرفتن گوگل، سایت شما در جستجو گوگل نمایش داده خواهد شد. پس از اینکه کاربر در گوگل واژهای را جستجو کند،گوگل در بین صفحاتی که index شدهاند بهترین و مرتبطترین نتایج را به کاربران نمایش خواهد داد. برای نمایش نتیجه مرتبط با جستجوی کاربر، فاکتورهای زیادی تعیین کننده است. از جمله این فاکتورها مکان کاربر، زبان کاربر، کشور کاربر میباشد. به عنوان مثال کاربری که در پاریس واژه «خرید دوچرخه» را جستجو میکند نتیجه متفاوتی از کاربری خواهد دید که در ژاپن همین جستجو را انجام میدهد.