1. تعریف الگوریتم گوگل
الگوریتم گوگل مجموعهای از قوانین و الزامات است که توسط گوگل برای تولید نتایج جستجو در نظر گرفته شده است. این الگوریتم بر اساس بیش از ۲۰۰ عامل مختلف کار میکند، از جمله تعداد و کیفیت لینکهای ورودی به یک سایت، محتوای موجود در سایت، سرعت بارگذاری سایت و غیره.
الگوریتم گوگل مجموعهای از قوانین و الزاماتی است که برای رتبهبندی صفحات وب در نتایج جستجوهای گوگل استفاده میشود. این الگوریتم با استفاده از فرایندهای پیچیدهای مانند تحلیل و بررسی ساختار صفحات، کلمات کلیدی و لینکهای ورودی، تلاش میکند تا بهترین صفحات ممکن را برای هر جستجوگر معرفی کند. در واقع، الگوریتم گوگل یکی از مهمترین ابزارهای موجود در حوزه بهینهسازی موتورهای جستجو است که تاثیر بسزایی در ترافیک وبسایتها و نتایج بازاریابی آنلاین دارد.
2. تاریخچه الگوریتم گوگل
الگوریتم گوگل اولین بار در سال ۱۹۹۶ توسط دو دانشجوی دانشگاه استنفورد به نامهای سرجی برین و لری پیج ابداع شد. این الگوریتم در ابتدا با نام Backrub شناخته میشد و از ابتدا به عنوان یکی از پیشروان جستجوی وب شناخته شد. در سال ۱۹۹۸، شرکت گوگل با هدف بهبود الگوریتم جستجو و ارائه نتایج بهتر، توسط برین و پیج تأسیس شد. با گذر زمان و با توسعه گسترده تر وب، الگوریتم گوگل به صورت بسیار پیشرفتهتر و پیچیدهتری تبدیل شد و همچنان هر روز به روز بهبود مییابد.
در حال حاضر، تعدادی از پیچیدهترین الگوریتمهای جستجوی وب متعلق به گوگل میباشند که با استفاده از آنها، گوگل تلاش میکند تا نتایج بهتری به کاربران خود ارائه دهد.
در ادامه به بررسی این الگوریتم ها میپردازیم. در ابتدا به عنوان خلاصه آن ها را معرفی میکنیم اما شما میتوانید با کلیک بر روی هر کدام از آنها به صفحه مربوطه منتقل شوید، لازم به ذکر است این الگوریتم ها به مرور کامل تر خواهند شد:
3. الگوریتم گوگل
تعداد الگوریتم گوگل زیاد میباشد اما ما در اینجا به بررسی آنها میپردازیم و به مرور آن را کامل میکنیم. همچنین برای آشنایی بیشتر میتوانید روی آنها کلیک کنید:
-
-
الگوریتم پیجرنک (PageRank) – الگوریتم گوگل
الگوریتم پیجرنک یکی از قدیمیترین و مهمترین الگوریتمهای گوگل است. این الگوریتم در سال ۱۹۹۶ توسط لری پیج و سرگئی برین در دانشگاه استنفورد ابداع شد. ایده اصلی پشت این الگوریتم، ارتباط بین صفحات وب را از طریق لینکهای بین آنها بررسی کرده و به ازای هر صفحه وب یک رتبه (Rank) اختصاص میدهد.به طور خلاصه، این الگوریتم از تعداد و کیفیت لینکهای ورودی به یک صفحه وب برای تعیین ارزش و اهمیت آن استفاده میکند.
بر اساس این الگوریتم، صفحات وب با بیشترین تعداد و کیفیت لینکهای ورودی، بالاترین رتبه را در نتایج جستجوی گوگل دریافت میکنند.از آنجا که پیجرنک به طور مداوم با الگوریتمهای دیگری ترکیب میشود، امروزه برای تعیین رتبه صفحات وب در نتایج جستجو، از یک مجموعه الگوریتمهای پیچیده استفاده میشود.
-
الگوریتم پاندا (Panda)
الگوریتم پاندا یکی از الگوریتمهای مهم گوگل برای بررسی کیفیت محتوا در وبسایتهاست. این الگوریتم در سال ۲۰۱۱ معرفی شد و هدف آن ارتقای کیفیت محتوا و کاهش سطح کپیبرداری بود. برای اجرای الگوریتم Panda، گوگل از یک سیستم مبتنی بر ارزیابیکنندگان انسانی به نام Quality Raters استفاده میکند. این افراد بازدید از صفحات وبسایتها را انجام میدهند و کیفیت محتوا، طراحی و سایر عوامل را ارزیابی میکنند. سپس، این اطلاعات به الگوریتم Panda منتقل میشود تا برای رتبهبندی صفحات، از آن استفاده شود.
اصلیترین هدف الگوریتم Panda کاهش رتبهبندی صفحاتی بود که کیفیت محتوای آنها پایین بوده و از محتوای کپی شده استفاده میکردند. با اجرای این الگوریتم، صفحاتی که محتوای ارزشمند و با کیفیت بالا داشتند، در رتبهبندی گوگل بهترین حالت خود را داشتند. علاوه بر این، الگوریتم Panda در صورت شناسایی صفحاتی که حاوی محتوای تکراری و یا خیلی شبیه به یکدیگر بودند، آنها را به عنوان محتوای تکراری در نظر میگرفت و رتبه آنها را پایین میکرد.
-
الگوریتم پنگوئن (Penguin)
الگوریتم پنگوئن یکی از الگوریتمهای گوگل بود که در سال ۲۰۱۲ معرفی شد. هدف اصلی این الگوریتم، شناسایی سایتهایی بود که با استفاده از تکنیکهای سئوی مشکوک به ساختاردهی محتوا و لینکدهی شدهاند و تاثیرات آنها را در رتبهبندی صفحات محتوایی سایتها کاهش داد.
از ویژگیهای الگوریتم پنگوئن، عدم تحمل گوگل نسبت به استفاده از کلمات کلیدی متعدد و بدون هدف در متنهای سایت و لینکهای بیارتباط است. با اجرای این الگوریتم، صفحات وب سایتهایی که با استفاده از این تکنیکهای مشکوک بودند، تاثیرات منفی را در رتبهبندی خود احساس کردند و مجبور شدند ساختار خود را تغییر دهند تا مجدداً به رتبهبندی خوبی دست یابند.
از زمان اولین اجرای این الگوریتم تا به امروز، گوگل به صورت مداوم این الگوریتم را بهبود داده و تلاش کرده است تا هر چه بیشتر سایتهایی که از تکنیکهای مشکوک استفاده میکنند را شناسایی کند.
-
الگوریتم مرغ مگس خوار (Hummingbird)
الگوریتم Hummingbird یکی دیگر از الگوریتمهای گوگل است که در سال ۲۰۱۳ معرفی شد. این الگوریتم بهبودهایی را در فهم مفهوم جستجوی کاربران ایجاد کرده است. به عبارت دیگر، این الگوریتم میتواند به بهترین شکل ممکن مفهوم جستجوی کاربران را درک کند و بهترین پاسخ ممکن را برای آنها ارائه دهد. این الگوریتم قابلیت پردازش سریع تر و دقیق تر دادههای جستجو را دارد و بهبودهایی در حوزه جستجوی صوتی و موبایلی داشته است. به عنوان مثال، با توجه به رشد استفاده از دستگاههای هوشمند، این الگوریتم میتواند به بهترین شکل ممکن مفهوم جستجوی کاربران را درک کرده و به نتایج دقیقتری دسترسی پیدا کند.
در این الگوریتم، گوگل به دنبال مفهوم کلی یک سوال است، نه فقط کلمات کلیدی. به عنوان مثال، اگر یک کاربر میخواهد درباره «تور پاریس» جستجو کند، گوگل با توجه به این الگوریتم، نه تنها به دنبال صفحاتی که حاوی کلمات «تور»، «پاریس» و «تور پاریس» هستند، بلکه به دنبال صفحاتی است که مرتبط با موضوع کلی «سفر به پاریس» هستند.
با این الگوریتم، گوگل میخواهد به کاربران کمک کند تا به راحتی و سریعتر به جواب سوالاتشان برسند و از تجربه بهتری در استفاده از موتور جستجوی گوگل بهره مند شوند. -
الگوریتم موبایل گدون (Mobilegeddon)
الگوریتم Mobilegeddon یکی از الگوریتمهای گوگل است که در سال ۲۰۱۵ معرفی شد. هدف از این الگوریتم، بهبود تجربه کاربری کاربران موبایل بوده است. با معرفی این الگوریتم، سایتهایی که برای موبایل بهینه نشدهاند، تحت تاثیر الگوریتم قرار گرفته و به نتیجههای بالاتر در جستجوهای موبایل نرسیدهاند. در واقع، سایتهایی که با توجه به ساختار و طراحی خود، برای دیدار در دستگاههای موبایل مناسب نیستند، در رتبهبندی جستجوهای موبایل به شدت ضرر میبینند. بنابراین، بهینهسازی سایت برای موبایل یکی از موارد حیاتی در بهینهسازی سئو به شمار میرود.
الگوریتم Mobilegeddon در واقع یک بهبود الگوریتم جستجوگر گوگل برای سایتهایی بود که در نمایشگرهای موبایل به خوبی عمل نمیکردند. این الگوریتم در سال ۲۰۱۵ معرفی شد و باعث شد تا سایتهایی که به خوبی به نمایش در آمدن در دستگاههای موبایل پاسخ نمیدادند، تحت تاثیر قرار گیرند و رتبه آنها در نتایج جستجوی گوگل کاهش یابد.
در واقع، این الگوریتم با توجه به روند رشد استفاده افراد از دستگاههای موبایل برای جستجو، سایتهایی را که به خوبی در این دستگاهها عملکرد نمیکردند، به مراتب کاهش داد.
-
الگوریتم رنک برین (RankBrain)
الگوریتم RankBrain یک الگوریتم هوش مصنوعی است که در سال ۲۰۱۵ معرفی شد. هدف اصلی این الگوریتم، بهبود نتایج جستجوی گوگل با استفاده از فهرستی از بردارهای ریاضی بود که با استفاده از یادگیری ماشینی بهبود یافتهاند. RankBrain توانایی تشخیص الگوهای جدید جستجو را دارد و بر اساس این الگوها نتایج بهتری را برای کاربران نمایش میدهد.
یکی از ویژگیهای منحصر به فرد RankBrain این است که میتواند با نام مستعار کلمات و عبارات جدید و نامتعارفی کاربران که قبلاً بهصورت رایج در جستجوها مورد استفاده قرار نمیگرفتند، کار کند. این ویژگی اهمیت بسیاری دارد زیرا با توجه به این که بیشتر کاربران از دستگاههای هوشمند برای جستجو استفاده میکنند، ممکن است کلمات و عبارات جدید و نامتعارفی بیشتر استفاده شوند.
به علاوه، RankBrain توانایی تخمین و پیشبینی میزان رضایت کاربر از صفحات وب را دارد. این به معنی آن است که این الگوریتم میتواند بر اساس رفتار کاربران و پاسخ آنها به نتایج جستجو، تصمیم بگیرد که چه صفحاتی در نتایج جستجوی گوگل بالاتر قرار گیرند.
-
الگوریتم موش کور ( Possum )
الگوریتم Possum یک الگوریتم جستجوگر گوگل است که در سال ۲۰۱۶ معرفی شد. هدف این الگوریتم، بهبود دقت نتایج جستجو در مکانهای محلی (Local SEO) بود. بدین منظور، الگوریتم Possum عملکردی را در قسمت مکانهای محلی جستجوی گوگل بهبود بخشید و تفاوتهایی در نمایش نتایج جستجوی مکانی به وجود آورد. این الگوریتم به این صورت کار میکند که اگر یک کسبوکار در محل خودش در نزدیکی یک شهر دیگر واقع شده باشد، اما از آن شهر نام برده نشده باشد، در نتایج جستجوی آن شهر نمایش داده میشود. با این الگوریتم، گوگل سعی کرد تا نتایج جستجوی مکانی را دقیقتر و دقیقتر نمایش دهد.
با الگوریتم Possum، گوگل قادر است بهترین نتایج جستجوی محلی را برای کاربران ارائه دهد. به عنوان مثال، اگر یک کاربر در جستجوی “رستورانهای نزدیک من” باشد، گوگل بهترین رستورانهای نزدیک به محل کاربر را نشان میدهد.در واقع، الگوریتم Possum از اطلاعات موقعیت جغرافیایی کاربران برای نمایش نتایج جستجوی محلی بهینهتر استفاده میکند. این الگوریتم باعث شده است تا کسبوکارهایی که در محدوده جغرافیایی خاصی قرار دارند، بتوانند در نتایج جستجوی محلی بهتر عرضه شوند و در نتیجه، بیشترین ترافیک و مشتریان ممکن را به دست آورند.
-
الگوریتم Fred
الگوریتم Fred یکی از الگوریتمهای جدید گوگل است که در سال ۲۰۱۷ معرفی شد. این الگوریتم بیشتر بر روی سایتهایی تأکید میکند که در تبلیغات و ارسال محتوای تبلیغاتی بیش از حد فعالیت میکنند. هدف اصلی این الگوریتم، بهبود کیفیت محتوای ارائه شده به کاربران و جلوگیری از نمایش محتوای تبلیغاتی بدون ارزش است. در واقع، گوگل با اعمال الگوریتم Fred به تلاش برای حفظ کیفیت محتوای سایتها و جلوگیری از استفاده از روشهای ناشایست در تولید و انتشار محتوا میپردازد.
-
الگوریتم Medic
الگوریتم Medic یکی دیگر از الگوریتمهای معروف گوگل است که در ماه اوت ۲۰۱۸ معرفی شد. این الگوریتم به صورت اساسی برای ارزیابی سایتهای حوزه پزشکی و بهداشتی طراحی شده است. هدف اصلی این الگوریتم، بهبود کیفیت محتوای سایتهای حوزه پزشکی و بهداشتی است. برای این منظور، گوگل از یک تیم متخصص در حوزه پزشکی به عنوان منبع اصلی اطلاعات استفاده میکند. به عبارت دیگر، این تیم متخصص برای بررسی محتوای سایتهای حوزه پزشکی و بهداشتی، به عنوان یک فاکتور مهم در تعیین رتبه سایتها در نتایج جستجوی گوگل، به کار میرود. در واقع، این الگوریتم با هدف جلوگیری از شیوع اطلاعات نادرست و غیرعلمی در حوزه پزشکی و بهداشتی طراحی شده است.
-
الگوریتم کافئین (Caffeine)
الگوریتم کافئین (Caffeine)، یکی از الگوریتمهای مهم موتور جستجوی گوگل است که در سال ۲۰۰۹ معرفی شد. این الگوریتم تغییرات عمدهای در سیستم جستجوی گوگل به ارمغان آورد که تلاش میکند باعث افزایش سرعت، دقت و بروزرسانیهای مداوم در نتایج جستجو شود. الگوریتم کافئین موجب شد که صفحات وب به طور سریعتر و در کمترین زمان ممکن در نتایج جستجوی گوگل نمایش داده شوند. با این الگوریتم، گوگل میتواند سریعتر از قبل صفحات وب را به روز کند و به نتایج جستجوی کاربران دسترسی راحتتری داشته باشد. البته الگوریتم کافئین در بسیاری از جوامع وبمستران نیز موجب اختلالات و تغییرات قابل توجهی شد که این موضوعات نیازمند بهبود و بهینهسازی محتوا و سئوی سایتها شد.
-
الگوریتم E-A-T
- الگوریتم E-A-T
یکی از الگوریتمهای بسیار مهم جستجوگر گوگل است. این الگوریتم به عنوان یک ابزار بهینهسازی سئو، برای بهبود رتبهبندی سایتها در نتایج جستجو بهکار میرود. در واقع E-A-T مخفف Expertise، Authoritativeness و Trustworthiness است که هر کدام به معنای خودشان بسیار مهم هستند.Expertise به معنای تخصص و داشتن دانش کافی در زمینه مربوطه است. Authoritativeness به معنای اعتبار و اعتمادی است که برای یک سایت در نظر گرفته میشود. Trustworthiness به معنای قابل اعتماد بودن و داشتن حسن نیت در تعامل با کاربران است. -
الگوریتم هیلتاپ (Hilltop)
الگوریتم هیلتاپ یکی از اصلیترین الگوریتمهای مورد استفاده در موتور جستجوی گوگل است که برای رتبهبندی صفحات وب در نتایج جستجو به کار میرود. این الگوریتم بر اساس مجموعهای از قوانین و الزامات تعیین شده توسط گوگل، صفحات وب را ارزیابی کرده و در نهایت بهترین صفحات را برای نمایش به کاربران انتخاب میکند. هدف اصلی الگوریتم هیلتاپ، ارائه نتایج جستجوی مرتبط و کیفیت بالا به کاربران است.
-
با توجه به اینکه الگوریتمهای گوگل از جمله اصولیترین و اساسیترین عوامل موفقیت در SEO و بهینهسازی سایت هستند، شناخت دقیق این الگوریتمها برای هر وبمستر و سئوکار بسیار حائز اهمیت است. همانطور که در این مقاله به توضیح الگوریتمهایی مانند PageRank، Hummingbird، Panda، Penguin، RankBrain و… پرداختیم، این الگوریتمها برای بهبود و بهینهسازی نتایج جستجو در گوگل توسعه داده شدهاند. بنابراین، برای داشتن یک سایت موفق و رتبه بالا در نتایج جستجو، نیاز است که با توجه به تغییرات الگوریتمهای جدید، بهینهسازیهای لازم را در سایت خود اعمال کنیم. مقاله “آپرین وردپرس” نیز با توجه به این نکته، به توضیح جزئیات بیشتری از الگوریتمهای گوگل پرداخته است. این سایت از خواندن مقالههای خود شما را سپاسگزار است و از این به بعد نیز با ارائه مطالب بیشتر در زمینه سئو و بهینهسازی سایت، در راستای ارائه خدمات بهتر و افزایش دانش کاربران قرار خواهد گرفت.