لیست کامل الگوریتم های گوگل از ابتدا تا 2023

به‌ روزرسانی شده در ۷ اسفند ۱۴۰۲

|

لیست کامل الگوریتم های گوگل از ابتدا تا ۲۰۲۳

روش‌های سئوی سایت دائماً در حال تغییر هستند؛ به همین دلیل است که سئو سایت در سال 2022 با 2010 بسیار متفاوت است و همه این‌ها به خاطر به‌روزرسانی مداوم الگوریتم‌های گوگل و همه موتورهای جستجو است تا بتوانند بهترین نتیجه را مطابق خواست و نیاز کاربران ارائه دهند. در همین زمان گوگل علاوه بر به‌روزرسانی الگوریتم‌های قدیمی، ‌الگوریتم‌های جدیدی را معرفی کرده که هر کدام وظایف مشخصی بر عهده دارند. در ادامه به معرفی مهمترین الگوریتم‌های گوگل خواهیم پرداخت.

الگوریتم چیست؟

واژه الگوریتم بیشتر در مباحث ریاضی و برنامه نویسی مورد استفاده قرار می‌گیرد. با این حال الگوریتم‌ها در اکثر کارهایی که ما انجام می‌دهیم حضور دارند. شاید اگر با تعریف الگوریتم آشنا شوید حضور آن را در زندگی خود بیشتر حس کنید. در واقع الگوریتم فهرستی از دستورات و قوانین است که یک کامپیوتر برای اجرا و تکمیل یک وظیفه باید انجام دهد.

الگوریتم گوگل چیست؟

الگوریتم‌های گوگل سیستم‌های پیچیده‌ای هستند که برای پیدا کردن و رتبه‌بندی مرتبط‌ترین صفحات برای عبارت جستجوشده کمک می‌کنند. در واقع کل سیستم رتبه‌بندی گوگل از چند الگوریتم ساخته‌شده که هرکدام چند فاکتور مختلف درون یا برون صفحه را در نظر می‌گیرند.

مهم‌ترین الگوریتم‌های گوگل که باید درموردشان بدانید (باغ وحش مجازی گوگل)

به طور کلی به‌روزرسانی‌های گوگل به دو دسته به‌روزرسانی‌های بزرگ و به‌روزرسانی‌های کوچک تقسیم می‌شوند. این به‌روزرسانی‌های کوچک گاهاٌ چند بار در روز هم رخ می‌دهند اما اثر آن‌ها به اندازه‌ای نیست که ما متوجه تغییر خاصی شویم. از طرف دیگر الگوریتم‌های بزرگ موتور جستجوی گوگل سالانه رخ می‌دهد و به قدری سر و صدا می‌کند که حتی گوگل هم آپدیت جدید را تأیید و نامی ‌را برای آن انتخاب می‌کند.
از آنجا که اکثر اسامی‌الگوریتم‌های ابتدایی گوگل از روی حیوانات گرفته شده بودند بسیاری آن را باغ وحش مجازی گوگل نامیدند.

 

الگوریتم‌های گوگل و جریمه‌های آن

بسیاری از الگوریتم‌هایی که از سمت گوگل معرفی می‌شوند تاثیر مستقیمی ‌روی وضعیت ترافیک سایت شما دارند. البته نمی‌توان به قطعیت گفت که تمام این الگوریتم‌ها به طور مستقیم با سئوی سایت شما در ارتباط هستند؛ اما بهتر است به عنوان یک متخصص سئو همواره از آپدیت‌های جدید الگوریتم‌های گوگل باخبر باشید. در ادامه فهرست الگوریتم‌های گوگل را با هم می‌بینیم و درباره بعضی از آنها توضیحاتی را خواهیم خواند.

  • الگوریتم پیج رنک
  • الگوریتم رقص گوگل
  • سندباکس گوگل
  • الگوریتم هیلتاپ
  • الگوریتم کافئین
  • الگوریتم پاندا
  • الگوریتم تازگی محتوا
  • الگوریتم ونیز
  • الگوریتم پنگوئن
  • الگوریتم دزد دریایی
  • الگوریتم EMD
  • الگوریتم Page Layout
  • الگوریتم گورخر
  • الگوریتم مرغ مگس خوار
  • الگوریتم Payday Loan
  • الگوریتم کبوتر
  • الگوریتم موبایل گدون
  • الگوریتم رنک برین
  • الگوریتم موش کور
  • الگوریتم فِرد
  • الگوریتم مدیک یا طبی
  • الگوریتم برت
  • الگوریتم موبایل فرست ایندکس
  • E-A-T
  • الگوریتم MUM
  • الگوریتم Product Reviews
  • بروزرسانی E-E-A-T
  • الگوریتم Helpful Content

قبل از اینکه به سراغ بررسی الگوریتم‌های گوگل برویم بد نیست نکته‌ای را بدانید. بسیاری از متخصصان سئو زمانی که می‌بینند ترافیک وب سایت به طرز غیرقابل پیش بینی کننده‌ای کم شده است، اول از همه به سراغ مسائلی چون اسپم بودن، بررسی بک لینک‌ها یا سئوی داخلی سایت می‌روند. در حالی که یکی از مواردی که ممکن است در نظر نگیرند آپدیت‌هایی است که گوگل برای الگوریتم‌های سئوی خود می‌دهد. بعد از خواندن این مقاله به اهمیت این مسئله پی می‌برید و متوجه می‌شوید که الگوریتم‌های گوگل یکی از مواردی است که باید به طور مداوم بررسی شود.

انواع الگوریتم های گوگل

  • الگوریتم پیج رنک (Google PageRank Algorithm) – سال ۱۹۹۸

در اواخر قرن بیستم، گوگل تصمیم گرفت الگوریتم جدیدی را معرفی کند که توسط آن امکان رتبه‌بندی سایت‌ها وجود داشته باشد. پیج رنک جزو اولین الگوریتم‌های گوگل است.
در ابتدا این الگوریتم لینک‌هایی که به هر دامنه یا صفحه داده می‌شد را بررسی می‌کرد و بر همین اساس هر سایتی که لینک‌های بیشتر و معتبرتری داشت، در رتبه‌های برتر قرار می‌گرفت. رفته‌رفته گوگل الگوریتم پیج رنک را با هدف جلوگیری از ساخت بک لینک‌های انبوه و پولی توسعه داد.

  • الگوریتم رقص گوگل (Google Dance) – سال ۲۰۰۴

گوگل وب سایت‌ها و صفحات جدید را چند بار در صفحه نتایج جا به جا می‌کند تا رفتار کاربران را نسبت به آن بسنجد و بتواند نسبت به تعداد کلیک‌ها، مدت زمانی که کاربران در صفحه می‌مانند و به طور کلی رفتار کاربران، رتبه مناسبی برای صفحه جدید در نظر بگیرد.

گاهی هم ممکن است رقص گوگل برای صفحه‌ای که تازه ایجاد نشده اتفاق بیفتد. علت آن می‌تواند این باشد که گوگل به تازگی متوجه این صفحه شده و قصد دارد یک شانس برای گرفتن رتبه بهتر به این صفحه بدهد. اگر زمانی که این صفحه در رقص گوگل در رتبه‌های اول و دوم قرار گرفت توانست کاربران را به خود جذب کند قطعاً تأثیر خوبی در رتبه‌اش خواهد دید.

  • سندباکس گوگل (Google Sandbox) – سال ۲۰۰۴

اگر سایت شما تازه تاسیس باشد ممکن است در سندباکس گوگل قرار بگیرید. هدف اصلی گوگل سندباکس این است که جلوی گرفتن رتبه مناسب صفحات شما را در همان ابتدای کار که صفحات ایندکس میشوند بگیرد. این اتفاق به این دلیل می‌افتد که ممکن است محتوای صفحات شما به اندازه دیگر صفحات موجود در SERP مناسب و مرتبط نباشد و این که ممکن است اسپم باشد. در نتیجه مدتی آن را در سندباکس قرار میدهد تا از صحت آن اطمینان حاصل کند. (این ویژگی گوگل هیچ‌گاه به صورت رسمی‌تایید نشده است اما بسیاری از متخصصان سئو بر این باورند که این الگوریتم وجود دارد و بر روی نتایج رتبه‌بندی تاثیرش را می‌گذارد.)

  • الگوریتم تپه (Hilltop Algorithm) – سال ۲۰۰۴

یکی از قدیمی‌ترین الگوریتم‌هایی که توسط گوگل ارائه شده، الگوریتم هیلتاپ یا تپه است. سال 2003 ایده هیلتاپ مطرح شد و در سال 2004 به صورت رسمی‌از انتشار آن خبر دادند. هدف این الگوریتم شناختن صفحات معتبر در موتورهای جستجو بود. در آن زمان وقتی کاربر کلمه‌ای را سرچ می‌کرد، ممکن بود آن کلمه نقطه اشتراک زیادی با موضوعات مختلف داشته باشد و گوگل نمی‌توانست صفحه معتبر و درستی را در اختیار کاربر قرار دهد.
این الگوریتم به وجود آمد تا صفحات تخصصی و دارای اعتبار را شناسایی کند و هنوز هم در کنار الگوریتم Page Rank، نقش مهمی ‌را در رتبه‌بندی سایت‌ها ایفا می‌کنند.

  • الگوریتم کافئین (Caffeine Algorithm) – سال ۲۰۱۰

در سال 2009، گوگل اعلام کرد که الگوریتم کافئین یکی از مهم‌ترین الگوریتم‌های تاریخ موتورهای جستجو خواهد شد. چندین ماه طول کشید تا گوگل آن را به صورت کامل آماده کند و در نهایت سال 2010 به شکل رسمی‌روانه بازار شد.
کار الگوریتم کافئین در واقع سیستم نوین ایندکس کردن سایت‌ها بود. قبل از آن ربات‌های گوگل تنها به محتواهای تازه و جدید اهمیت می‌دادند و برای ایندکس دوباره مطالب گذشته، سایت‌ها مشکل داشتند. الگوریتم کافئین به صورت مستقیم روی رتبه سایت‌ها تاثیری نگذاشت؛ اما با تغییری که ایجاد کرد باعث شد سایت‌هایی که محتواهای قدیمی‌خود را بیشتر به‌روزرسانی می‌کنند، در رتبه‌های بهتری قرار بگیرند.

  • الگوریتم پاندا گوگل (Panda Algorithm) – سال ۲۰۱۱

الگوریتم پاندا در سال 2011 راه‌اندازی شد. هر چند گوگل سال‌ها قبل از آن نیز به ارائه خدمات مشغول بود، اما پاندا اولین الگوریتمی ‌بود که در دنیای مدرن سئو به صورت رسمی ‌معرفی شد. این الگوریتم در سال 2016 به الگوریتم هسته پیوست و در نتیجه دائماً در حال فعالیت و بررسی سایت‌هاست. هدف از این الگوریتم پایین آوردن رتبه سایت‌هایی است که محتوای بی‌کیفیت دارند. به طور کلی تمام الگوریتم‌های گوگل در تلاش هستند که سایت‌های اسپم را شناسایی و حذف کنند تا نتایج جستجوی گوگل هرچه بیشتر کارآمد شود.

بیشترین مواردی که می‌تواند به عنوان پنالتی از طریق این الگوریتم اعلام شود، محتوای تکراری یا سرقت ادبی است؛ سعی کنید محتواهای منحصربه‌فرد و اورجینال بنویسید. تمرکز الگوریتم پاندا بیشتر بر فاکتورهای درون صفحه (on-page) است و تطابق عبارت سرچ شده توسط کاربران را با موضوع کلی صفحه می‌سنجد. این الگوریتم گوگل به دو مسئله بسیار حساس است و با آن‌ها برخورد می‌کند:

  1. سایت‌هایی که فقط با هدف لینک‌دهی به سایت‌های دیگر به وجود آمده‌اند. (Affiliate sites)
  2. سایت‌هایی که محتوای بسیار کوتاهی دارند.

الگوریتم پاندا همچنین محتواهای کم حجم را شناسایی می‌کند. بهتر است اگر صفحه‌ای محتوای کم حجمی‌ دارد چه از لحاظ تعداد کلمات و چه از لحاظ لینک‌هایی که از آن به خارج داده شده است، آن را اصلاح یا حذف کنید. یکی دیگر از مشکلاتی که می‌تواند در محتواهای شما باعث شود که توسط گوگل پنالتی شوید بحث تکرار بیش از اندازه کلمه کلیدی است. این مورد به تنهایی می‌تواند سایت شما را اسپم کند و رتبه شما را در نتایج گوگل کاهش دهد.

  • الگوریتم تازگی محتوا (Freshness Algorithm) – سال ۲۰۱۱

در سال 2011 گوگل الگوریتم رتبه‌بندی را طوری تغییر داد تا محتوای تازه‌تر در بالای نتایج قرار بگیرد. به این ترتیب اگر موضوعی در یک دوره داغ می‌شد یا یک رویدادی در حال اجرا بود کاربران راحت‌تر می‌توانستند به مطالب مربوطه دست پیدا کنند. الگوریتم تازگی محتوا بر 35 درصد از جستجوها اثر گذاشت.

  • الگوریتم ونیز (Venice Algorithm) – سال 2012

از میان الگوریتم‌های موتور جستجوی گوگل، الگوریتم ونیز از آن جهت که مربوط به جستجوهای محلی می‌شود، آپدیت قابل توجهی محسوب می‌شود. در این الگوریتم که در سال 2012 به راه افتاد، IP یا موقعیت جغرافیایی که برای سایت تعریف شده باشد نیز در نتایج جستجوی گوگل دخیل شدند.

  • الگوریتم دزد دریایی (Pirate Algorithm) – سال ۲۰۱۲

این یکی از آن الگوریتم‌های گوگل است که کاملاً با اسمش هم‌خوانی دارد. گوگل با ایجاد این به‌روزرسانی در سال 2012 سعی داشت تا با کپی‌برداری از مطالب سایت‌های دیگر و به نوعی دزدی ادبی مقابله کند. به این ترتیب برای سایت‌هایی که محتوای تکراری منتشر می‌کردند رتبه منفی در نظر گرفت.

خصوصاً سایت‌هایی که در زمینه دانلود کتاب، فیلم یا موزیک بدون کپی رایت فعالیت می‌کنند، تحت تاثیر الگوریتم دزد دریایی خواهند بود. البته هنوز میزان دقت و قدرت این الگوریتم در حدی نیست که به دنبال تک تک وب سایت‌های جدید که محتوای دزدی دارند بیفتد. با توجه به این که تعداد این سایت‌ها هم هر روز بیشتر می‌شود. اما برای کسانی که می‌خواهند روی سایت خود سرمایه‌گذاری کنند توجه به این نکته اهمیت زیادی دارد تا مطمئن شوید دچار پنالتی گوگل نخواهید شد.

  • الگوریتم EMD (Exact Match Domain) – سال ۲۰۱۲

در سال 2012، برای اولین بار سخن از الگوریتمی‌به نام Exact Match Domain به میان آمد. این الگوریتم در طی این 10 سال بارها و بارها آپدیت شده و هدف اصلی آن از بین بردن سایت‌هایی است که به‌صورت اسپمی‌فعالیت می‌کنند و محتوای ضعیفی ارائه می‌دهند.
سایت‌هایی که محتوای بی‌کیفیت تولید می‌کنند و قادر نیستند که نیاز مخاطبان خود را برطرف کنند و ارزشی برای آن‌ها خلق نمی‌کنند، بیشتر از سایر سایت‌ها در معرض درگیری با این الگوریتم هستند.

  • الگوریتم پنگوئن (Penguin Algorithm) – ۲۰۱۲

الگوریتم پنگوئن توسط گوگل معرفی شده تا کیفیت لینک‌های داده‌شده به یک صفحه را مشخص کند. این الگوریتم که تاکنون چندین بار به‌روزرسانی شده، می‌تواند به بهبود رتبه‌بندی یک سایت کمک کند یا سایت‌های لینک‌های مخرب و پولی گرفته باشند، را با جریمه مواجه کند.

وقتی گوگل اعلام کرد که بک لینک‌ها می‌توانند در گرفتن رتبه اثر مثبتی داشته باشند، برخی سایت‌ها شروع به ساخت یا خرید بک لینک‌ مصنوعی کردند. گوگل برای مقابله با این اقدام الگوریتم پنگوئن را راه اندازی کرد. با این به‌روزرسانی موتور جستجوی گوگل، صفحاتی که در این زمینه متخلف شناخته شوند از صفحه نتایج جستجو حذف خواهند شد. در بهترین حالت نیز ممکن است دچار افت رتبه شوند.

آخرین به‌روزرسانی در سال 2016 رخ داد و طی آن قرار شد که بک لینک‌های هر صفحه را مورد بررسی قرار دهد و اگر تخلفی رخ داد، همان لندینگ را جریمه کند؛ اما از آن‌جایی که عملکرد تک تک صفحات روی رتبه سایت موثر است، افت رتبه یا جریمه یک یا چند صفحه می‌تواند تاثیرات منفی خود را روی کل سایت بگذارد.

  • الگوریتم پیج لی‌اوت (Page Layout Algorithm) – سال ۲۰۱۲

این الگوریتم در اوایل سال 2012 برای اولین بار ارائه شد. در نسخه اولیه‌ الگوریتم Page Layout که با نام «Top Heavy» هم شناخته می‌شد، گوگل قصد داشت جلوی سایت‌هایی که تعداد زیادی تبلیغ را در بالای صفحات سایت خود قرار می‌دهند را بگیرد. چند ماه بعد مدیر تیم وب اسپم گوگل خبر آپدیت جدید این الگوریتم را در توئیتر منتشر کرد و همچنین اعلام کرد که Page Layout توانسته روی 0.7 درصد از کوئری‌های انگلیسی تاثیر بگذارد.

در سال 2014 بار دیگر به‌روزرسانی برای آن درنظر گرفته شد تا عمکلرد بهتری را ارائه کند. در سال 2016 هم جان مولر در مصاحبه‌ای بیان کرد که این الگوریتم به صورت کامل اتوماتیک شده و از این به بعد بدون دخالت دست می‌تواند اثرگذار باشد.

بعد از به‌روزرسانی آخر، گوگل با تبلیغات در بالای صفحه تا زمانی که به تجربه کاربر آسیبی وارد نکند و بیش از حد نباشد، مشکلی نداشت. بنابراین سایت‌ها می‌توانستند در ابتدای صفحه خود تبلیغ قرار دهند. برای بهتر مشخص شدن چگونگی قرارگیری آن هم چندین تصویر را منتشر کرد.

همچنین کرالرهای گوگل به‌خوبی می‌توانند سایت‌هایی که تبلیغات آزاردهنده‌ای در ابتدای صفحه خود قرار داده‌اند را شناسایی کنند و به‌عنوان یک فاکتور منفی در رتبه‌بندی درنظر بگیرند. این الگوریتم کمک می‌کند تا کاربری که به‌عنوان مثال با موبایل وارد چنین سایت‌هایی می‌شود، 4 الی 5 بار برای رسیدن به محتوای موردنیاز خود اسکرول نکند و تجربه کاربری بهتری داشته باشد.

  • الگوریتم گورخر (Zebra Algorithm) – سال ۲۰۱۳

این الگوریتم در واقع آپدیتی برای الگوریتم هسته مرکزی است که در سال 2013 ایده ایجاد آن کلید خورد. یکی از نمایندگان گوگل با پدیده عجیبی مواجه شد؛ او در حالی که از نتایج جستجو بازدید می‌کرد، یک عینک‌‌فروشی را در رتبه اول گوگل دید که هیچ شباهتی به یک فروشگاه نداشت.

در ادامه به‌روزرسانی گورخر که بعدها با نام الگوریتم هم از آن یاد کردند، سایت‌های فروشگاهی که خدمات بی‌کیفیتی ارائه می‌کردند را مورد هدف قرار داد و اگر فروشگاه فاکتورهای لازم را نداشت، آن را از نتایج جستجو حذف می‌کرد یا به رتبه‌های پایین‌تر می‌فرستاد.

گورخر، هشدار بسیار مناسبی برای سایت‌های فروشگاهی بود که بدون توجه به کاربر و نیاز آن فعالیت می‌کردند و خدمات بی‌کیفیتی را ارائه می‌دادند.

  • الگوریتم مرغ مگس خوار (Hummingbird Algorithm) – سال ۲۰۱۳

یکی از بخش‌هایی که در الگوریتم‌های گوگل بهبود یافته است، درک عمیق تر از مفهوم کوئری‌هاست. در گذشته زمانی که یک کاربر عبارتی را در گوگل جستجو می‌کرد در نتایج گوگل ابتدا لینک‌هایی را نشان می‌داد که این عبارت کلیدی در آن وجود داشت. در حالی که توسط الگوریتم مرغ مگس خوار این فرایند تغییر کرده است و حالا بیشتر اهمیت دارد که نتیجه جستجو به موضوع و زمینه اصلی کوئری مرتبط باشد و الزاماً نیازی نیست که این کلمه کلیدی در داخل مقاله یا محتوای یک صفحه استفاده شده باشد به همین خاطر استفاده از مترادف‌ها بهینه تر شده و اهمیت بیشتری یافته است.

گوگل الگوریتم مرغ مگس خوار را برای سرچ صوتی (voice-search) پایه‌گذاری کرد و حالا هرچه زمان می‌گذرد و دستگاه‌ها بیشتر به تایپ صوتی مجهز می‌شوند اهمیت بیشتری می‌یابد. بر همین اساس، مرغ مگس خوار به کل عبارت سرچ شده توجه می‌کند نه تک‌تک کلمات. چراکه ممکن است به دلایلی چون اشتباهات تایپی و… عبارتی سرچ شود که در واقع منظور کاربر نباشد. اما گوگل به کمک این الگوریتم می‌تواند نتایجی را ارائه دهد که با وجود اشتباه تایپی با آنچه در ذهن کاربر بوده تطابق داشته باشد.

اگر قصد دارید نوشته‌هایتان را برای این الگوریتم گوگل سئو کنید باید علاوه بر کلیدواژه از مترادف‌های آن نیز استفاده کنید. متن باید به اندازه کافی روان نوشته شده باشد و خوانایی خوبی داشته باشد. اما نگران نباشید؛ چراکه مرغ مگس خوار کسی را به خاطر عدم رعایت این نکات جریمه نخواهد کرد. فقط با رعایت آن‌ها می‌توانید بهتر در نتایج جستجوی مرتبط با نوشته‌هایتان ظاهر شوید.

از آنجایی که برای گوگل محتواهای ارزشمند و اورجینال اهمیت دارد، بهتر است از این به بعد روی تحقیقات کلمه کلیدی خود بیشتر کار کنید. به این معنا که بهتر است به جای تکیه کردن روی عبارات کوتاه و کلمات کلیدی، بر روی تولید محتوای با ارزش که تمرکز کنید. هنوز هم در میان سایت‌ها نوشتن کلمات غیر طبیعی و نه چندان مفهوم در عنوان‌ها رایج است. اما به مرور زمان با هوشمندتر شدن موتورهای جستجو تمام این سایت‌ها به مشکل خواهد خورد چرا که مفهوم و کانسپت هم در نوشته‌ها اهمیت پیدا می‌کند.

  • الگوریتم Payday Loan – سال ۲۰۱۳

این الگوریتم برای مقابله با سایت‌های مستهجن و قمار ایجاد شد که به نوعی سایت‌های اسپم محسوب می‌شوند.

  • الگوریتم کبوتر (Pigeon Algorithm) – سال ۲۰۱۴

در این باغ وحش مجازی گوگل پرنده‌های دیگری هم حضور دارند و یکی از آن‌ها الگوریتم کبوتر است که یک سال بعد از مرغ مگس خوار و در 2014 متولد شد. این الگوریتم هم مانند الگوریتم ونیز بر سئوی محلی تمرکز دارد با این تفاوت که علاوه بر این که بر صفحات نتایج اثرگذار است بر نقشه گوگل نیز توجه ویژه‌ای داشته است و منجر به توانایی گوگل در ارائه نتایج نزدیک به کاربران شده است.

  • الگوریتم موبایل گدون (Mobilegeddon Algorithm) – سال ۲۰۱۵

صنعت سئو به‌روزرسانی موبایل گوگل را به موبایل گدون تفسیر کرد. تصور سئوکاران بر این بود که این آپدیت کل نتایج جستجو را دگرگون خواهد کرد. در سال 2015 که الگوریتم موبایل گدون معرفی شد 50 درصد از سرچ‌های گوگل از دستگاه‌های تلفن همراه انجام می‌شدند و این مسئله باعث شد تا گوگل برای سایت‌هایی که برای صفحه‌هایی به اندازه موبایل هم مناسب ساخته شده بودند، امتیاز خاصی در نظر بگیرد. این سایت‌ها را اصطلاحاً mobile friendly می‌نامیم. هدف این الگوریتم ارتباط راحت و دسترسی سریع کاربران با وب سایت شما از طریق پلتفرم موبایل است. موبایل فرندلی بودن فاکتوری است که در حال حاضر اهمیت بالاتری برای گوگل نسبت به نسخه دسکتاپ دارد.

گوگل برای تکمیل رضایت کاربران در این بخش به سرعت لود صفحه نیز پرداخت و در سال 2018 طی یک به‌روزرسانی دیگر سرعت لود صفحه را نیز جزء فاکتورهای رتبه‌بندی قرار داد. البته سرعت هم در سرچ موبایلی و هم در دسکتاپ اهمیت دارد.

پیشنهاد گوگل برای وب سایت‌ها استفاده از قالب‌های ریسپانسیو یا تکنولوژی صفحات موبایلی پرشتاب است. این تکنولوژی که با نام مخففAMP شناخته می‌شود، باعث می‌شود صفحات یک سایت در حالت موبایل با سرعت بسیار بالاتری نمایش داده شود. برای اینکه مطمئن شوید صفحات وب سایت شما موبایل فرندلی است، می‌توانید از ابزار گوگل موبایل فرندلی تست (Google Mobile friendly test) که به صورت کاملاً رایگان در اختیار افراد قرار می‌گیرد، برای بررسی وب سایت خود استفاده کنید.

  • الگوریتم رنک برین (Rank Brain Algorithm) – سال ۲۰۱۵

رنک برین در میان الگوریتم‌های جستجو اوج هنرنمایی گوگل است؛ چراکه گوگل در این به‌روزرسانی برای مدیریت عبارت‌های سرچ شده از ماشین یادگیری استفاده کرده است. به این ترتیب می‌تواند معنی کلماتی که نمی‌شناسد را حدس بزند، کلمات با معنای مشابه را پیدا کند و بر اساس آن نتایج مرتبط را ارائه دهد.این به‌روزرسانی در سال 2015 معرفی شد و به واسطه آن گوگل توانست نتایجی به مراتب مرتبط‌تر از قبل به کاربران ارائه دهد. یک سال بعد یعنی در مارس 2016 گوگل اعلام کرد که الگوریتم رنک برین یکی از سه الگوریتم مهم برای رتبه‌بندی سایت‌ها است.

مشکل اینجاست که شما نمی‌توانید به روش‌های سنتی همان طور که برای الگوریتم‌های دیگر سایتتان را سئو می‌کردید، برای الگوریتم رنک برین هم صفحات سایتتان را سئو کنید مگر اینکه محتوای باکیفیتی بنویسید.

  • الگوریتم موش کور (Possum Algorithm) – سال ۲۰۱۶

در سال 2016 گوگل بعد از الگوریتم‌های ونیز و کبوتر، از الگوریتم صاریغ برای سرچ محلی پرده‌برداری کرد تا یک پرده دیگر نیز در باغ وحش مجازی خود داشته باشد. بعد از این به‌روزرسانی دیده شدن در سرچ محلی برای برخی کسب و کارهایی که در رتبه‌بندی کلی گوگل نمی‌توانستند رتبه خوبی به دست بیاورند ساده‌تر شد تا کاربران هم راحت‌تر بتوانند به کسب و کارهای نزدیک خود دست پیدا کنند. بنابراین با این آپدیت رتبه‌بندی سرچ محلی کاملاً از رتبه‌بندی سرچ‌ها جدا شد و تغییرات زیادی در نتایج سرچ محلی به وجود آمد.

  • الگوریتم فرد (Fred Algorithm) – سال ۲۰۱۷

این الگوریتم در ابتدای کار خود نامی‌نداشت و عنوانی برای آن انتخاب نشده بود تا اینکه در توئیتر، گری (Gary IIIyes) این ابهام را برطرف کرد و در پاسخ به یکی از کاربران گفت تمامی‌آپدیت‌هایی که از این به بعد منتشر می‌شود و نامی ‌ندارد، فِرد نامیده می‌شود. البته منظور ما از این الگوریتم، به‌روزرسانی که در تاریخ هفتم مارس 2017 منتشر شده است.

این الگوریتم کابوسی برای سایت‌های بی‌کیفیت (خصوصا سایت‌هایی که از افیلیت مارکتینگ استفاده می‌کنند) است و در کنار الگوریتم E-A-T قصد دارد نتایج باکیفیت‌تری را در اختیار کاربران قرار دهد. در اصل الگوریتم فرد سایت‌هایی که شرایط زیر را دارند، پیدا می‌کند و به رتبه‌های پایین‌تر می‌فرستد تا فضا برای سایر سایت‌ها آماده شود:

  • تبلیغات بیش‌ازحد دارند.
  • محتواهای کوتاه تولید می‌کنند.
  • کیفیت لینک کمی‌دارند.
  • محتواها کیفیت مطلوبی ندارند.
  • تعداد زیادی لینک افیلیت دارند.
  • تبلیغات بیش از حد در محتواها به نمایش درمی‌آورند.
  • مخاطبان تعاملی با محتواها برقرار نمی‌کنند.

تمامی‌این فاکتورها یا گاهی برخی از آن‌ها کافی‌ست که این الگوریتم سراغ سایت شما بیاید.

  • الگوریتم مدیک یا طبی (Medic Algorithm) – سال ۲۰۱۸

الگوریتم مدیک یک الگوریتم وسیع و هسته‌ای است که سایت‌های زیادی را تحت تأثیر قرار داد و منجر به تغییرات زیادی در رتبه‌بندی شد. جالب است که این تنها الگوریتمی‌است که فقط یک حوزه و موضوع مشخص را هدف گرفته؛ حوزه پزشکی و احتمالاً دلیل آن حفظ کاربران از اطلاعات پزشکی غلط و اشتباه است. این به‌روزرسانی در سال 2018 در همه کشورها و همه زبان‌ها اعمال شد و همه وبلاگ‌ها، سایت‌های پزشکی، سبک زندگی و مشاورین سلامت را شامل شد. هرچند نیمی‌از سایت‌هایی که تحت تأثیر قرار گرفتند هم موضوعاتی غیرپزشکی و سلامتی داشتند.

  • الگوریتم برت (BERT Algorithm) – سال ۲۰۱۸

الگوریتم برت به عنوان بزرگ‌ترین تغییر طی 5 سال گذشته معرفی شده که از هر 10 سایت بر روی یکی اثر گذاشته است. این الگوریتم هم مانند الگوریتم رنک برین یک ماشین یادگیری است؛ یک تکنیک وابسته به شبکه عصبی که برای پردازش زبان طبیعی به وجود آمده است. کلمه BERT هم از حروف ابتدایی کلمات Bidirectional Encoder Representations from Transformers به معنی «رمزگذار دوطرفه نمایش داده شده از مبدل‌ها» گرفته شده.

برت می‌تواند با توجه به کلمات قبلی و بعدی به معنای کلمه پی ببرد. به عبارت دیگر برای تشخیص معنی کلمه از متن و روابط کلمات در جمله استفاده می‌کند.

  • الگوریتم موبایل فرست ایندکس (Mobile First Index Algorithm) – سال ۲۰۱۹

در گذشته تعداد بسیار زیادی از کاربران گوگل تنها از نسخه دسکتاپ استفاده می‌کردند، با گذشت زمان هرچقدر که جلوتر رفتیم درصد بیشتری از کاربران به استفاده از نسخه موبایل سایت‌ها روی آوردند. به همین دلیل گوگل هم تمرکزش را بر روی نسخه موبایل سایت‌ها گذاشت و این موضوع تا حدی جدی شد که گوگل رسما اعلام کرد که نسخه موبایل سایتها در اولویت قرار دارد و از طریق نسخه موبایل صفحات را ایندکس می‌کند.

  • سند راهنمای ارزیاب‌های جستجوی گوگل E-A-T – سال ۲۰۱۹

گوگل با این رویکرد که سایت‌های حوزه سلامت، مالی و حقوقی حساسیت بالایی دارند و مستقیما با جان و مال افراد در ارتباط هستند، دستورالعملی را تحت عنوان E-A-T منتشر کرد. E-A-T در واقع مخفف سه کلمه Expertise، Authoritativeness و Trustworthiness است و به وضوح روی تخصص، اعتبار و اعتماد تاکید دارد.

این دستورالعمل در ابتدا فقط روی سایت‌هایی که با سرمایه و زندگی شما (YMYL) درگیر هستند، متمرکز بود ولی گفته می‌‌شود که گوگل قصد دارد آن را به تمامی‌سایت‌ها در همه حوزه‌ها تعمیم دهد. سایتی که در زمینه‌های نام‌برده‌شده فعالیت می‌کند، باید محتوا را به شرایط زیر تولید کند تا در نگاه این الگوریتم نمره بالایی داشته باشد و در رتبه‌های برتر گوگل قرار بگیرد:

تولید محتوا باید توسط فرد متخصص و معتبری نوشته شده و زمینه کاری مرتبطی داشته باشد و مطلب به‌هیچ عنوان کپی نباشد. مثلا اگر در حوزه سلامت فعالیت دارید، گوگل زمانی به شما رتبه برتر را می‌دهد که نویسنده‌ای که در مورد داروها، تداخل آن‌ها، تاثیرات آن و… مطلب می‌نویسد، متخصص باشد تا جان کاربران به خطر نیافتد.

سایت شما باید در حوزه تخصصی که فعالیت دارید، قابل اعتماد باشد. از نگاه گوگل و E-A-T، سایتی که در میان سایر کسب‌وکارها قابل اعتماد باشد، می‌تواند برای کاربران هم اطمینان را فراهم کند.

در راستای دو فاکتور قبلی، اعتبار هم از نیازهای محتوایی است که در این حوزه تولید می‌شود. نویسنده معتبر، اطلاعات درست و کاربردی و استفاده کردن از منابع معتبر به‌جای کپی مطالب، فاکتور اعتبار را در نگاه گوگل تعریف می‎کند.

  • الگوریتم MUM (Multitasking United Model Algorithm) – سال ۲۰۲۱

این الگوریتم همانطور که از نامش پیداست، می‌تواند چند کار را با هم انجام دهد. برخلاف سایر الگوریتم‌ها که تسک‌ها را یکی پس از دیگری انجام می‌دادند، الگوریتم MUM چندین کار را باهم انجام می‌دهد. به عبارت دیگر یعنی همزمان توانایی خواندن متن، درک مفهوم و تقویت آن با ویدئو و صوت را انجام می‌دهد. همچنین به بیش از 75 زبان زنده دنیا مسلط است تا بتواند اطلاعات را به درستی دریافت کند و سوالات پیچیده کاربران را پاسخ دهد.

  • الگوریتم Product Reviews – سال ۲۰۲۱

تمام هدف موتورهای جستجو از رتبه‌بندی سایت‌ها این است که مرتبط‌ترین و دقیق‌ترین نتیجه را به کاربر نشان دهند. این موضوع برای کاربرانی که تحقیقات جامعی درباره خرید یک محصول انجام می‌دهند، اهمیت زیادی دارد. به همین دلیل، گوگل در آپریل ۲۰۲۱، الگوریتم جدیدی به نام «پروداکت ریوو» را معرفی کرد. این الگوریتم محتوایی را برای محصولات مناسب می‌داند که بر اساس تجزیه‌وتحلیل دقیق و تحقیقات واقعی باشد. به‌صورت کلی، الگوریتم product review روی توضیحات دست‌اول محصولات، تصاویر منحصربه‌فرد و مرتبط با کالا تمرکز دارد و کمک می‌کند کاربران تجربه بهتری در هنگام خرید محصولات داشته باشند. از ابتدای معرفی این الگوریتم تا به امروز، گوگل چندین به‌روزرسانی‌ روی الگوریتم Product Reviews انجام داده است.

  • به‌روزرسانی EEAT – سال ۲۰۲۲

در آخرین روزهای سال ۲۰۲۲، گوگل با اضافه‌کردن فاکتور جدید «تجربه» به مفهوم E-A-T، تغییرات چشمگیری در دستورالعمل‌ ارزیابی کیفیت (QRG) نتایج جستجو ایجاد کرد. در حال حاضر، شاخص E-A-T به شاخص E-E-A-T تبدیل شده و هر کدام به‌صورت زیر تعریف می‌شوند:

  • شاخص تجربه (experience)
  • شاخص تخصص (expertise)
  • شاخص اعتبار(authoritativeness)
  • شاخص اعتماد (trustworthiness)

منظور از تجربه در شاخص E-E-A-T، این است که نویسنده تا چه حد درباره یک موضوع تجربه‌ شخصی دارد. به بیان دیگر گوگل با معرفی این شاخص می‌خواهد مطمئن شود آیا یک محتوا بر اساس تجربه زیستی نویسنده نوشته شده است یا خیر. تجربه نویسنده می‌تواند شامل تجربه استفاده از یک محصول، دریافت یک خدمت یا سرویس، بازدید از یک مکان واقعی یا تجربه انجام یک کار واقعی باشد. برای درک این مفهوم، به مثال‌های زیر دقت کنید:

✅ مثال درست: نگارش محتوای نقد و بررسی گوشی آیفون توسط فردی که چند روز از آن استفاده کرده است.
❌ مثال نقض: نگارش محتوای نقد و بررسی گوشی آیفون که فقط با جمع‌آوری اطلاعات عمومی و بدون استفاده شخصی نوشته شده است.

با اینکه گوگل فاکتور تجربه را به دستورالعمل ارزیابی خود اضافه کرده است، اما تاکید دارد شاخص اعتماد (trustworthiness) مهم‌‌ترین شاخص در E-E-A-T به شمار می‌رود. صفحاتی که غیرقابل اعتماد هستند، صرف نظر از اینکه چقدر در آن‌ها تجربه، تخصص یا اعتبار وجود دارد، قطعاً E-E-A-T پایینی دارند.

  • الگوریتم Helpful Content – سال ۲۰۲۲

گوگل در سال ۲۰۲۲، به‌روزرسانی جدیدی به نام «helpful content» یا «محتوای مفید» را با هدف کمک به کاربران برای یافتن محتوای باکیفیت معرفی کرد. گوگل با این الگوریتم، محتواهای کم‌ارزش را شناسایی می‌کند و به محتواهای مفیدی که برای کاربر انسانی نوشته شده‌اند کمک می‌کند تا رتبه بهتری در نتایج جستجو بگیرند. الگوریتم محتوای مفید، برخلاف بسیاری دیگر از الگوریتم‌ها که به‌صورت صفحه‌به‌صفحه (Page-by-Page) عمل می‌کنند، یک الگوریتم Side-Wide است. به عبارتی نه‌تنها یک صفحه، بلکه کل سایت را بررسی می‌کند. بنابراین، اگر گوگل تشخیص دهد که سایتی شامل تعداد زیادی محتوای غیرمفید است، کل سایت را تحت‌ تأثیر قرار می‌دهد. از آن‌جایی که در سال‌های اخیر، گوگل به مفهوم تجربه کاربری بسیار اهمیت می‌دهد، پس با تولید محتوایی که شاخص‌های الگوریتم helpful content را داشته باشد، می‌توان ابتدا رضایت مخاطب و سپس ربات‌های گوگل را به‌ دست آورد. شما به‌عنوان تولیدکننده محتوا یا مدیر سایت، می‌توانید ارزشمندی محتواهای سایت خود را با پاسخ به چند سوال اساسی در سند راهنمای Helpful Content بررسی کنید.

این نکته را در نظر بگیرید که تمام الگوریتم‌های معرفی‌شده در این مطلب، از زمان انتشار تاکنون چندین به‌روز‌رسانی داشته‌اند و سازوکار آن‌ها با ارزیابی‌ها و آزمایش‌های دقیق بهبود یافته است. با این حال، گوگل معمولاً به‌روزرسانی‌های مهم خود را به‌صورت رسمی اعلام می‌کند.

در انتهای این مقاله بهتر است به این نکته اشاره کنیم که گوگل در سال ۲۰۲۳، الگوریتم جدیدی را معرفی نکرد و تمام تمرکز خود را روی به‌روزرسانی هسته، پروداکت ریوو و الگوریتم محتوای مفید گذاشت. علاوه بر این، چندین به‌روزرسانی برای تشخیص لینک اسپم (Link Spam Update) انجام داد. برای اینکه بتوانید لیست کامل و جزئیات به‌روزرسانی‌ها را از سال ۲۰۰۳ تا ۲۰۲۳ ببیند، پیشنهاد می‌کنیم مطلب «تاریخچه به‌روزرسانی‌های الگوریتم گوگل» را در سایت Search Engine Journal بخوانید.

هدف الگوریتم‌های موتور جستجوی گوگل

هدف الگوریتم‌های موتور جستجوی گوگل، دسته‌بندی مطالب سایت‌ها و کمک هر چه بیشتر به مخاطب در یافتن اطلاعات مدنظر است. روزانه حجم بسیار زیادی از اطلاعات در سایت‌های مختلف بارگذاری می‌شوند که این شبکه جهانی وب را به یک کتابخانه بی‌انتها تبدیل می‌کند. گوگل به‌عنوان کتاب‌دار این کتابخانه باید بتواند مطالب را دسته‌بندی کند تا بر اساس نیاز متقاضیان آن‌ها را در دسترس قرار دهد. آنچه به گوگل در این امر کمک می‌کند الگوریتم‌ها هستند.
الگوریتم‌های جدید گوگل این فرآیند را ظرف چند ثانیه انجام می‌دهند. الگوریتم‌های رتبه‌بندی گوگل از میان سایت‌هایی که در خود گوگل ایندکس می‌شوند به دنبال ارائه اطلاعاتی به مخاطب هستند که بیشترین بازدهی را به دنبال داشته باشد یا به عبارت دیگر لبخند رضایت را بر لبان مخاطب بنشاند.

الگوریتم‌های گوگل و تأثیر آن‌ها بر رتبه‌بندی نتایج

از آنجا که گوگل اقیانوسی از محتواست باید همه آن‌ها را به ترتیب براساس مرتبط بودن به عبارت سرچ‌شده و کیفیت محتوای ارائه‌شده فهرست کند. چرا که کاربر نیز وقت و توان بررسی همه نتایج نمایش داده شده را ندارد. پس در این میان برد با کسی است که جایگاه بالاتری داشته باشد.

گوگل برای فهرست‌بندی صفحات وب برای هر عبارت از خزنده‌ها یا اسپایدرهایی استفاده می‌کند که همه صفحات را می‌خزند و از لینکی به لینکی دیگر می‌روند و در نهایت برای هر عبارتی که ممکن است سرچ شود یک فهرستی را می‌سازند. کار اصلی موتور جستجو این است که وب سایت‌هایی را به کاربر ارائه کند که حاوی عبارات جستجوی او باشد. در نتیجه این فرایند اتوماتیک که مشخص می‌کند نتیجه هر عبارت جستجوشده در چه جایگاه و رتبه‌ای در صفحه نتایج جستجو ظاهر شود به هر صفحه یک رتبه تعلق می‌گیرد که پیج رنک (Page Rank) نامیده می‌شود.

این غول موتور جستجو نمی‌تواند یک پایگاه داده بسیار بزرگ داشته باشد که نامنظم بوده و هرگاه کاربر عباراتی را در آن جستجو کند شروع به مرتب کردن آن کند. بنابراین گوگل در هر زمان توسط خزنده‌های خود محتوا را ایندکس و مدیریت می‌کند. جستجوی ایندکس بسیار سریع‌تر از جستجوی کل پایگاه داده خواهد بود. وقتی محتوا ایندکس شد گوگل یک کپی از آن تهیه می‌کند و یک میانبر برای هر صفحه را در ایندکس قرار می‌دهد.

حالا که این فرایند انجام شد، گوگل هنگام جستجوی یک کلمه خیلی راحت‌تر می‌تواند عبارت مرتبط را پیدا کند. به ازای جستجوی هر عبارتی در گوگل هزار نتیجه وجود دارد، گوگل از طریق الگوریتم‌های خود تصمیم می‌گیرد که نتایج با چه نظم و ترتیبی به کاربر نمایش داده شود. همین نظم و ترتیب در نمایش جستجوها قلب سئو است.

داده بزرگ‌ترین سرمایه گوگل است. حجم بسیار زیاد داده، مدیریت نوین می‌طلبد تا همه آنچه کاربر می‌خواهد با رعایت اصل امانت‌داری به دستش برسد. گوگل همه ‌ساله با ابداع الگوریتم‌های جدید سعی دارد تا دنیای اطلاعات را وارد عصر جدیدتری کند.

سخن پایانی

الگوریتم‌های گوگل با اینکه از یک سو می‌توانند باعث جریمه شدن یا افت رتبه سایت‌ها شوند اما این‌ها فقط در مواردی اتفاق می‌افتد که از قوانین تخلف کنند. در اکثر موارد این الگوریتم‌ها به کاربران کمک کرده‌اند. این الگوریتم‌های موتورهای جستجو بوده‌اند که باعث بهبود ارائه نتایج جستجو شده‌اند، رقابت را بین سایت‌ها ایجاد کرده و باعث بالا رفتن کیفیت مطالب ایجاد شده در وب سایت‌ها شده‌اند.
اگر شما هم صاحب سایتی هستید و قصد دارید کاربران بیشتری را با سایتتان آشنا کنید باید آن را طبق الگوریتم‌های گوگل سئو کنید تا از هرگونه آسیب احتمالی در امان بمانید.

اخبار مرتبط

عضویت در خبرنامه

ایمیل خود را وارد کنید تا از جدیدترین اخبار و مقالات حوزه دیجیتال مارکتینگ مطلع شوید.

"*" قسمتهای مورد نیاز را نشان می دهد

موضوع مورد علاقه خود را انتخاب کنید*
این فیلد برای اعتبار سنجی است و باید بدون تغییر باقی بماند .

اشتراک‌گذاری‌:

مطالب مرتبط

10 پاسخ

  1. واقعا باید با گوگل مثل یه آدم برخورد کرد

    1. بله همینطور هست که میفرمایید، البته گاهی اوقات هم واقعا ارزیابان گوگل که انسان هستند صفحاتمون رو مورد بررسی قرار میدهند. اگر مایل باشید پیشنهاد میکنم این ایبوک رو که در مورد ارزیابان گوگل ارائه شده مطالعه کنید:
      https://static.googleusercontent.com/media/guidelines.raterhub.com/en//searchqualityevaluatorguidelines.pdf

  2. سال 2021 هم یک اپدیت عظیم به هسته خود اضافه کرده بنام الگوریتم مام
    الگوریتم e a t هم جای توضیح داره

    1. سلام دوست عزیز وقتتون به خیر
      ممنونیم از پاسختون، مورد اولی که نیاز هست بهش اشاره کنیم اینه که شاخص e.a.t که شما هم بهش اشاره کردید بسیار مهم، ارزشمند و تاثیرگذاره و الگوریتم نیست.
      برای این موضوع هم در یک مقاله دیگه به صورت کاملتر بهش پرداختیم. اگر براتون جالب بود خوشحال میشیم مطالعه کنید و نظرتون رو با ما در میان بگذارید:
      https://www.triboon.net/blog/2231/e-a-t/
      و بله دقیقا همینطور که فرمودید الگوریتم MUM هم بسیار مهم هست و در آینده قطعا تاثیرات بیشتری بر روی نتایج SERP خواهد گذاشت. ممنونیم از یادآوریتون این مورد رو هم به این مقاله حتما اضافه میکنم. و در یک بلاگ دیگه هم به صورت کاملتر بهش پرداختیم که آدرسش رو برای دسترسی راحتتر براتون در همین کامنت قرار میدیم:
      https://www.triboon.net/blog/7478/%D8%A7%D9%84%DA%AF%D9%88%D8%B1%DB%8C%D8%AA%D9%85-mum-%DA%AF%D9%88%DA%AF%D9%84-%D9%86%DB%8C%D8%A7%D8%B2%D9%87%D8%A7%DB%8C-%D8%B4%D9%85%D8%A7-%D8%B1%D8%A7-%D9%85%DB%8C%E2%80%8E%D9%81%D9%87%D9%85%D8%AF/

  3. سلام و خسته نباشید
    آیا هنوز الگوریتمی برای تشخیص pbn ساخته شده؟

    1. سلام حسین جان
      وقتتون به خیر
      الگوریتم پنگوئن برای شناسایی لینک‌سازی‌های اسپم و غیرطبیعی هست و این موضوع رو هم میتونه متوجه بشه.

  4. صرف دونستن اینا برای یه سئوکار کافیه
    بعضی شرکتا توقع دارن که سئوکار اینارو حفظ باشه :/

    1. قطعا که فقط دونستن اینکه این الگوریتم‌ها چی هستن و چی کار می‌کنن کافی نیست، مهم اینکه بدونیم برای هر کدوم باید چیکار کنیم و هر کاری که می‌کنیم در راستای کدوم الگوریتمه که بتونیم تصمیم درست بگیریم و سلیقه‌ای عمل نکنیم.

  5. سلام
    بسیار متشکرم از مقاله جامعی که برای این موضوع به اشتراک گذاشتید. نکته‌ی مهم رعایت الگوریتم‌های توضیح داده شده در بتن کار بود که اتفاقا باعث شد برای این موضوع گوگل سایت شما رو در رتبه نخست نشون بده.
    سوالی که دارم اینه که آیا در سال‌ها 2020، 2022 و 2023 الگوریتم جدید معرفی نشده؟

    1. سلام فاطمه جان، قطعا که تو سال‌های ۲۰۲۱ و ۲۰۲۲ هم آپدیت داشتیم، دلایل اینکه تو این مقاله بهشون اشاره نکردیم، موارد زیر هست؛
      – الگوریتم‌های جدیدی نبودن
      – یا بروزرسانی‌ِ الگوریتم‌های قبلی بودن
      – یا آپدیت‌های core یا همون هسته‌ی گوگل بودن
      اما تو سال ۲۰۲۳ بروزرسانی‌های مهمی انجام شده ولی ما هنوز فرصت نکردیم این مقاله رو آپدیت کنیم و به‌زودی اینکار رو انجام میدیم.
      ممنون از حسن توجه شما 🌹

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

از اخبار روز سئو و روابط عمومی باخبر باش
آخرین رازهای گوگل درباره رتبه‌بندی سایت‌ها در جدیدترین ایبوک تریبون

برای دریافت رایگان ایبوک فقط روی دکمه زیر کلیک کنید.