بسیاری از صاحبان وب سایت ها سعی می کنند با استفاده از میانبرها یا ترفندهای قدیمی رتبه خود را بهبود بخشند تا کلمات کلیدی خود را در صفحه اول گوگل قرار دهند. با این حال، الگوریتم های گوگل به طور مرتب به روز میشوند تا این اقدامات غیراخلاقی را شناسایی و متوقف کنند، و مطمئن شوند که فقط محتوای با کیفیت بالا و مرتبط، به بالاترین سطح میرسد.
روش های بهبود سئو همیشه در حال پیشرفت هستند. این به این دلیل است که گوگل به طور مکرر الگوریتم های خود را برای افزایش کیفیت نتایج جستجو به روز می کند. گوگل همچنین الگوریتمهای جدیدی را معرفی کرده است که هر کدام هدف خاصی را در بهبود فرآیند جستجو انجام میدهند و اطمینان حاصل میکنند که کاربران دقیقترین و با ارزشترین اطلاعات را پیدا میکنند.
الگوریتم چیست؟
الگوریتم یک روش گام به گام یا مجموعه قوانینی است که برای حل یک مسئله یا دستیابی به یک هدف خاص استفاده می شود. در حالی که این اصطلاح معمولاً در ریاضیات و برنامه نویسی استفاده می شود، الگوریتم ها بخشی از زندگی روزمره حتی خارج از فناوری هستند.
در محاسبات، یک الگوریتم به سادگی مجموعهای از دستورالعملها است که یک کامپیوتر برای تکمیل یک کار از آنها پیروی میکند. برای سهولت درک آن، الگوریتم را به عنوان یک دستور غذا در نظر بگیرید: از مواد خاصی استفاده می کند (ورودی)، مراحل خاصی را برای ترکیب آنها دنبال می کند (فرآیند)، و یک ظرف کامل (خروجی) تولید می کند.
به عنوان مثال، در مورد الگوریتم تقسیم، دو عدد را به عنوان ورودی می گیرد، یکی را بر دیگری تقسیم می کند و سپس نتیجه را به عنوان خروجی به شما می دهد.
به طور خلاصه، یک الگوریتم مجموعه ای دقیق و سازمان یافته از مراحل است که برای حل یک مسئله یا تکمیل یک کار طراحی شده است. شروع و پایان مشخصی دارد و برای رسیدن به هدفش دنباله ای منطقی را دنبال می کند. این چیزی است که یک الگوریتم را تعریف می کند.
الگوریتم گوگل چیست؟
الگوریتم گوگل یک سیستم قدرتمند و پیچیده است که برای بهبود جستجوی کاربران و ارائه دقیق ترین و مرتبط ترین نتایج طراحی شده است. این الگوریتمها فاکتورهای مختلفی مانند محتوای یک صفحه وب، پیوندهای بین وبسایتها و قدرت (یا رتبه) کلی یک صفحه را در نظر میگیرند تا تعیین کنند که یک صفحه تا چه حد به درخواست جستجوی کاربر مرتبط است.
گوگل تنها به یک الگوریتم متکی نیست، بلکه از ترکیبی از الگوریتمهایی استفاده میکند که با هم کار میکنند. این الگوریتمها نقش کلیدی در سئو (بهینهسازی موتور جستجو گوگل) دارند، به این ترتیب صاحبان وبسایتها از نمایش صفحات خود در نتایج جستجو اطمینان میدهند. وقتی چیزی را جستجو میکنید، الگوریتمهای گوگل از اطلاعات جمعآوریشده توسط خزندههای موتورهای جستجو (برنامههای خودکاری که وب را مرور میکنند) برای تجزیه و تحلیل و رتبهبندی وبسایتها استفاده میکنند.
سپس الگوریتم های گوگل اطلاعات را بر اساس ارتباط و اهمیت سازماندهی می کنند و به گوگل کمک می کنند مفیدترین نتایج جستجو را برای شما نمایش دهد. این تجزیه و تحلیل دقیق از محتوا و ساختار صفحات وب به گوگل اجازه می دهد تا نتایج بسیار دقیق و مرتبطی را به کاربران ارائه دهد.
هدف از الگوریتم های گوگل چیست؟
هدف اصلی الگوریتم های گوگل بهبود کیفیت نتایج جستجو و ارائه اطلاعات دقیق و مفید به کاربران است. این الگوریتمها محتوا و ساختار وبسایتها را تجزیه و تحلیل میکنند تا تعیین کنند چقدر مهم و ارزشمند هستند، که به گوگل کمک میکند آنها را در نتایج جستجو رتبهبندی کند.
گوگل همیشه الگوریتمهای خود را بهروزرسانی و اصلاح میکند تا مطمئن شود کاربران بهترین و مرتبطترین نتایج را دریافت میکنند. هدف این است که تجربه جستجوی بهتری را ارائه دهیم و افراد بتوانند اطلاعات مورد نیاز خود را پیدا کنند.
اهداف کلیدی الگوریتم های گوگل:
1- کاهش رتبه سایت های با کیفیت پایین
یکی از اهداف اصلی الگوریتم های گوگل، پایین آوردن سایت های با کیفیت پایین در نتایج جستجو است. این سایت ها اغلب دارای محتوای کپی شده یا نامربوط هستند که ارزشی برای کاربران ندارد. با شناسایی و کاهش رتبه چنین سایت هایی، گوگل تضمین می کند که کاربران نتایج جستجوی بهتری دریافت می کنند و تجربه کلی آنها را بهبود می بخشد.
2- افزایش رتبه سایت های با ارزش و کاربر پسند
هدف الگوریتم های گوگل رتبه بندی وب سایت های با کیفیت بالا و کاربرپسند در نتایج جستجو است. این سایت ها دارای محتوای اصلی و ارزشمندی هستند که با آنچه کاربران در جستجوی آن هستند مطابقت دارد. گوگل با شناسایی و رتبه بندی این وب سایت ها به کاربران کمک می کند تا بهترین و مرتبط ترین اطلاعات را پیدا کنند.
مهم ترین الگوریتم های گوگل در سال 2024
در سال 2024، الگوریتم های گوگل در سازماندهی صفحات در نتایج جستجو حتی پیشرفته تر شده اند. این الگوریتمها، همراه با سیستمهای یادگیری ماشین، به تجزیه و تحلیل و ارزیابی صفحات وب کمک میکنند تا مرتبطترین و مفیدترین نتایج را به کاربران ارائه دهند.
با این پیشرفت ها، ترفندهای قدیمی سئو و راه حل های سریع دیجیتال مارکتینگ دیگر برای دستیابی به رتبه های برتر کار نمی کنند. درک نحوه عملکرد الگوریتم های گوگل می تواند به وب سایت شما کمک کند تا از رقبا بهتر عمل کند و مخاطبان بیشتری را جذب کند.
الگوریتم های کلیدی گوگل در سال 2024:
1. الگوریتم پیج رنک PageRank
PageRank از زمان معرفی آن در سال 1998 یکی از مهمترین الگوریتم های گوگل برای رتبه بندی صفحات وب بوده است. در ابتدا صفحات را بر اساس تعداد لینک هایی که از سایت های دیگر دریافت کرده اند رتبه بندی می کرد. پیوندهای بیشتر به معنای ارزش بیشتر است زیرا پیوندها به عنوان “رای اعتماد” برای صفحه عمل می کنند.
در طول سالها، PageRank بهروزرسانی شد تا کیفیت لینکهای داخلی، استفاده از متن لنگر، و اینکه آیا لینکها بهعنوان «nofollow» علامتگذاری شدهاند (بدون تأثیر بر رتبهبندی) در نظر گرفته شود. این تغییرات باعث شد رتبه صفحه در تعیین ارزش صفحه دقیق تر و موثرتر باشد.
2. الگوریتم محتوای مفید
الگوریتم محتوای مفید(Helpful Content) که در سال 2023 معرفی شد، بر بهبود تجربه کاربر از طریق پاداش دادن به وبسایتهایی که محتوای با ارزش و با کیفیت بالا ارائه میکنند، تمرکز دارد. گوگل از این الگوریتم برای تنبیه سایت هایی استفاده می کند که محتوا تولید می کنند تا فقط در نتایج جستجو رتبه بالایی داشته باشند بدون اینکه ارزش واقعی ارائه دهند.
به کل سایت نگاه می کند، نه فقط یک صفحه، بنابراین اگر یک سایت دارای محتوای کم ارزش زیادی باشد، ممکن است کل سایت تحت تاثیر منفی قرار گیرد. برای موفقیت، وب سایت ها باید محتوایی تولید کنند که واقعا به کاربران کمک کند، که منجر به رضایت بالاتر و رتبه بندی بهتر می شود.
3. الگوریتم SpamBrain
یکی از الگوریتم های گوگل، SpamBrain یک الگوریتم امنیتی قدرتمند است که توسط گوگل برای مبارزه با وبسایتهایی که از تکنیکهای سئوی غیراخلاقی «سئو کلاه سیاه» استفاده میکنند، استفاده میکند. این الگوریتم از یادگیری ماشینی پیشرفته و هوش مصنوعی برای شناسایی و مسدود کردن فعالیتهای مشکوک مانند کلاهبرداری اینترنتی یا شیوههای دستکاری سئو استفاده میکند. این کمک می کند تا نتایج جستجو را تمیز و قابل اعتماد نگه دارد و از کاربران در برابر وب سایت های هرزنامه یا مخرب محافظت کند.
4. الگوریتم Freshness
الگوریتم Freshness (تازگی محتوا) که اولین بار در سال 2011 معرفی شد، تضمین میکند که نتایج جستجو شامل بهروزترین و مرتبطترین اطلاعات است. اگر محتوای شما جدید باشد یا اخیراً بهروزرسانی شده باشد، این الگوریتم آن را بهعنوان «تازگی محتوا» تشخیص میدهد و آن را در نتایج جستجو رتبهبندی میکند. به روز رسانی منظم محتوای قدیمی و انتشار اطلاعات جدید برای حفظ و بهبود رتبه مقالات، ویدیوها و سایر انواع محتوای سایت شما ضروری است. این الگوریتم برای سئو بسیار مهم است زیرا به کاربران کمک می کند جدیدترین اطلاعات را ارائه دهند که تجربه جستجوی آنها را بهبود می بخشد.
5. الگوریتم Google Dance
یکی از الگوریتم های گوگل، الگوریتم رقص گوگل به صورت دوره ای رتبه بندی صفحات وب را بر اساس تغییرات ایجاد شده در محتوا و ساختار یک وب سایت بررسی و به روز می کند. هم عوامل درون سایت (مانند به روز رسانی های محتوای شما) و هم عوامل خارج از سایت (مانند لینک های خارجی) را برای تعیین رضایت کاربر از یک صفحه ارزیابی می کند. برای بهبود رتبه سایت خود در حین «رقص Google»، مهم است که محتوای خود را به روز نگه دارید، تجربه کاربری بهتری ایجاد کنید، از استراتژی ایجاد لینک هوشمند استفاده کنید و به طور مداوم بهبودها را انجام دهید.
6. الگوریتم Google Sandbox
الگوریتم Google Sandbox در سال 2004 معرفی شد تا اطمینان حاصل شود که وب سایت های جدید قبل از رتبه بندی بالا در نتایج جستجو، اعتبار و کیفیت ایجاد می کنند. به آن به عنوان یک “دوره انتظار” برای سایت های جدید فکر کنید که حدود 3 تا 6 ماه طول می کشد. در این مدت، گوگل به دقت عملکرد سایت را ارزیابی می کند. فاکتورهایی مانند لینکها، صفحات، کیفیت محتوا، سرعت بارگذاری و افزایش سرعت سایت و بهینهسازی سایت موبایل را بررسی میکند تا اطمینان حاصل شود که قبل از رتبهبندی خوب، بهبود چشمگیری پیدا میکند. هدف از این فرآیند جلوگیری از ظاهر شدن سریع وب سایت های جدید با کیفیت پایین در نتایج جستجوی برتر است.
7. الگوریتم پاندا گوگل
الگوریتم پاندا که در سال 2011 معرفی شد، بر بهبود کیفیت نتایج جستجو تمرکز دارد. محتوای وبسایتها را بررسی میکند، به ویژه به دنبال محتوای تکراری، با کیفیت پایین یا بیش از حد کوتاه است. هدف پاندا فیلتر کردن سایتهایی است که بر محتوای ضعیف یا کپی شده تکیه میکنند و آنهایی را که دارای مطالب باکیفیت و اصلی هستند، در اولویت قرار میدهد. برای جلوگیری از تأثیر منفی این الگوریتم، صاحبان وب سایت باید روی ایجاد محتوای ارزشمند و منحصر به فرد تمرکز کنند که تجربه کاربر را افزایش می دهد.
8. الگوریتم پنگوئن گوگل
الگوریتم پنگوئن که در سال 2012 راه اندازی شد، وب سایت هایی را هدف قرار می دهد که از تاکتیک های سئوی دستکاری مانند لینک های اسپم یا بی کیفیت برای افزایش رتبه خود استفاده می کنند. پیوندهای داخلی (در داخل وب سایت) و خارجی (از سایر سایت ها) را بررسی می کند تا مطمئن شود که آنها طبیعی و مرتبط هستند. پنگوئن سایتهایی را که بیش از حد از کلمات کلیدی استفاده میکنند یا از بک لینک های با کیفیت پایین استفاده میکنند، جریمه میکند که به رتبه بهتر سایتها کمک میکرد. اکنون، وبسایتهایی با لینکها و محتوای طبیعی و باکیفیت پاداش میگیرند، در حالی که آنهایی که از شیوههای غیراخلاقی استفاده میکنند در رتبهبندی پایین میروند.
9. الگوریتم کافئین گوگل
الگوریتم کافئین گوگل که در سال 2009 معرفی شد و به طور رسمی در سال 2010 راه اندازی شد، تغییرات قابل توجهی در نحوه فهرست بندی صفحات وب توسط گوگل ایجاد کرد. قبل از این، ربات های گوگل فقط بر روی محتوای جدید تمرکز می کردند و ایندکس را کند و پیچیده می کردند. کافئین با سرعت بخشیدن به فرآیند نمایه سازی، انقلابی در این امر ایجاد کرد و به گوگل اجازه داد محتوای تازه و به روز شده را با سرعت بیشتری ارائه دهد. به طور مداوم دستوراتی را به ربات ها ارسال می کند تا در صورت تغییر محتوا، صفحات وب را بررسی و به روز کنند. این بهبود تضمین می کند که کاربران با سرعت بیشتری به، به روزترین اطلاعات دسترسی پیدا کنند و سرعت نتایج جستجو را دو برابر می کند.
10. الگوریتم RankBrain
RankBrain که در سال 2015 معرفی شد، یکی از مهم ترین الگوریتم های گوگل است. از هوش مصنوعی و یادگیری ماشینی استفاده می کند تا معنای پشت سؤالات جستجو را بهتر درک کند و نتایج دقیق تری ارائه دهد. RankBrain به طور مداوم از داده های جستجو، رفتار کاربر و نتایج جستجوی قبلی یاد می گیرد تا نحوه رتبه بندی صفحات وب را بهبود بخشد. این الگوریتم فقط بر روی کلمات کلیدی تمرکز نمی کند، بلکه به زمینه و هدف پشت جستجو نگاه می کند. برای اینکه وبسایتها رتبه خوبی در زیر RankBrain داشته باشند، باید روی ارائه یک تجربه کاربری عالی، محتوای با کیفیت بالا و بهینهسازی کلمات کلیدی خود برای مطابقت با رفتار کاربر تمرکز کنند.
11. الگوریتم Google Mobilegeddon
Mobilegeddon (موبایل گدون گوگل) که در سال 2015 راه اندازی شد، یک به روز رسانی بود که به طور خاص بر بهبود نتایج جستجو برای کاربران تلفن همراه متمرکز بود. این وبسایتهای سازگار با تلفن همراه را که به راحتی در دستگاههای تلفن همراه مانند تلفنهای هوشمند و تبلتها قابل مشاهده و پیمایش هستند، در اولویت قرار میدهد.
وب سایت هایی که به درستی در دستگاه های تلفن همراه نمایش داده نمی شوند به تدریج در نتایج جستجوی تلفن همراه پایین می روند. این تغییر فقط بر جستجوهای موبایلی تأثیر می گذارد، نه نتایج دسکتاپ. گوگل استفاده از قالبهای واکنشگرا را توصیه میکند که بهطور خودکار طرحبندی وبسایت را متناسب با اندازههای مختلف صفحه نمایش تنظیم میکنند. با استفاده از ابزار Google’s Mobile-Friendly Test میتوانید بررسی کنید که آیا وبسایت شما برای موبایل مناسب است یا خیر.
12. الگوریتم برت گوگل
الگوریتم BERT (نمایش رمزگذار دوطرفه از Transformers)، که در سال 2019 راه اندازی شد، پیشرفتی در توانایی گوگل برای درک زبان طبیعی است. این به گوگل کمک می کند تا با نگاه کردن به کلمات قبل و بعد از آنها، متن کلمات را در یک عبارت جستجو بهتر درک کند. این به ویژه برای عبارات جستجوی پیچیده یا محاوره ای مفید است. BERT به گوگل این امکان را می دهد که نه تنها کلمات کلیدی فردی، بلکه معنای کل جمله را درک کند. از هوش مصنوعی برای تجزیه و تحلیل مقادیر زیادی از داده های متنی و یادگیری ارتباط بین کلمات استفاده می کند و دقت جستجو را بهبود می بخشد. با درک روابط بین کلمات، BERT نتایج جستجوی دقیق تری را برای کاربران ارائه می دهد.
13. الگوریتم Mobile First Index
الگوریتم Mobile First Index تغییر قابل توجهی در نحوه رتبه بندی وب سایت ها توسط گوگل ایجاد کرد. قبل از این، نسخه دسکتاپ یک وب سایت عامل اصلی رتبه بندی بود. با این حال، با استفاده بیشتر از افراد از دستگاه های تلفن همراه برای جستجو، گوگل تمرکز خود را تغییر داد. اکنون Mobile First Index نسخه موبایلی یک سایت را هنگام رتبه بندی آن در اولویت قرار می دهد. این تغییر به این معنی است که وبسایتهایی با تجربههای موبایلی بهینهشده، بهویژه آنهایی که نسخههای دسکتاپ و موبایل منطبق دارند، بیشترین بهره را میبرند. اگر سایتی در موبایل ضعیف عمل کند، حتی اگر نسخه دسکتاپ آن بی عیب و نقص باشد، ممکن است در رتبه بندی افت کند.
14. الگوریتم E-A-T (تخصص، اقتدار، اعتماد)
E-A-T مخفف Expertise، Authority و Trustworthiness است. این یکی از الگوریتم های کلیدی گوگل برای ارزیابی کیفیت صفحات وب است. این الگوریتم برای اولین بار برای محتوای «پول یا زندگی شما» (YMYL) مانند مشاوره پزشکی یا مالی اعمال شد. این تمرکز بر این است که آیا محتوا توسط متخصصان واجد شرایط ایجاد شده است، آیا وب سایت در زمینه خود معتبر است و آیا اطلاعات ارائه شده قابل اعتماد است یا خیر. E-A-T که در ابتدا برای محتوای حساس استفاده می شد، اکنون بر تمام دسته بندی وب سایت ها تأثیر می گذارد.
15. الگوریتم MUM (مدل یکپارچه چند کار)
الگوریتم MUM که در سال 2021 معرفی شد، از هوش مصنوعی و پردازش زبان طبیعی برای بهبود جستجوهای گوگل استفاده می کند. این می تواند محتوا را در قالب های مختلف – متن، تصویر، ویدئو و حتی صدا – درک کند و آنها را به طور همزمان پردازش کند. این به ارائه نتایج دقیق تر کمک می کند. علاوه بر این، MUM میتواند اطلاعات را به چندین زبان ترجمه و تجزیه و تحلیل کند، که نتایج جستجوی جهانی را افزایش میدهد.
16. الگوریتم مرغ مگس خوار
الگوریتم مرغ مگس خوار که در سال 2013 راه اندازی شد، توانایی گوگل را در درک معنای پشت عبارات جستجو به جای تطبیق کلمات کلیدی افزایش می دهد. این به ویژه در جستجوی صوتی، جایی که کاربران بیشتر به صورت مکالمه سؤال می پرسند، مؤثر است. مرغ مگس خوار با تمرکز بر جستجوی معنایی، قصد کاربر را پیش بینی می کند و نتایجی را ارائه می دهد که دقیقاً با آنچه کاربر به دنبال آن است مطابقت دارد، حتی اگر از کلمات کلیدی کاملی استفاده نکرده باشد.
17. الگوریتم کبوتر Pigeon algorithm
الگوریتم کبوتر که در سال 2014 معرفی شد، نتایج جستجوی محلی را بهبود بخشید و یافتن مشاغل یا خدمات نزدیک خود را برای کاربران آسانتر کرد. با ترکیب جستجوی گوگل و داده های نقشه، Pigeon نتایج دقیق و مبتنی بر مکان ارائه می دهد. این بهروزرسانی برای کسبوکارهای محلی مفید بوده است، زیرا به آنها اجازه میدهد در هنگام جستجوی خدمات در منطقه خود، رتبه بالاتری کسب کنند.
18. الگوریتم گورخر
الگوریتم گورخر که در سال 1998 راه اندازی شد، بر پاکسازی تجارت الکترونیک با حذف فروشگاه های آنلاین هرزنامه یا تقلبی از نتایج جستجو تمرکز دارد. هدف آن برجسته کردن فروشگاه های آنلاین قابل اعتماد و مسدود کردن آنهایی است که قابل اعتماد نیستند. با استفاده از الگوریتم گورخر، گوگل می تواند گزینه های خرید آنلاین بهتر و مطمئن تری را به کاربران پیشنهاد دهد.
19. الگوریتم Page layout Algorithm
الگوریتم صفحهبندی که با نام «Top Heavy» نیز شناخته میشود، در سال 2012 معرفی شد تا از رتبهبندی وبسایتهایی با تبلیغات زیاد در بالا جلوگیری کند. گوگل این را برای بهبود تجربه کاربری اجرا کرد. اگر سایتی قبل از رسیدن به محتوای واقعی تبلیغات مزاحم زیادی داشته باشد، الگوریتم صفحهبندی ممکن است آن را جریمه کند. هدف، ارتقای وب سایت هایی است که بین تبلیغات و محتوای کاربرپسند تعادل ایجاد می کنند.
20. الگوریتم ونیز
الگوریتم ونیز که در سال 2012 راه اندازی شد، یک گام مهم رو به جلو در جستجوهای محلی بود. با استفاده از آدرس IP کاربر یا موقعیت جغرافیایی، ونیز به ارائه نتایج جستجوی مرتبط با آن منطقه خاص کمک می کند. این بهروزرسانی به Google کمک کرده است نتایج محلی دقیقتری ارائه دهد و بهویژه برای کاربرانی که به دنبال کسبوکارها یا خدمات اطراف هستند مفید است.
21. الگوریتم دزدان دریایی گوگل
یکی از الگوریتم های گوگل، الگوریتم Pirate است که در سال 2012 معرفی شد، برای مبارزه با نقض حق چاپ طراحی شد. وبسایتهایی را هدف قرار میدهد که محتوای غیرقانونی مانند فیلم، موسیقی یا نرمافزار را به اشتراک میگذارند. اگر یک وب سایت حاوی مقدار زیادی محتوای کپی شده یا غیرقانونی باشد، الگوریتم دزدان دریایی می تواند آن را با پایین آوردن آن، در رتبه بندی جستجو یا حذف کامل آن جریمه کند.
22- الگوریتم Payday Loan
الگوریتم Payday Loan یکی از راه حل های گوگل برای کاهش حضور وب سایت های اسپم در نتایج جستجو است. در سال 2013 معرفی شد، و برای مبارزه با افزایش سایتهای با کیفیت پایین، اغلب مملو از هرزنامهها، که در صفحات جستجو در رتبه بالایی قرار میگرفتند، طراحی شد. این سایتهای هرزنامه، اغلب از کلمات کلیدی محبوب غیر مرتبط با محتوای خود استفاده میکنند، تجربه جستجو را مختل میکنند. الگوریتم Payday Loan به گوگل کمک میکند تا اینگونه سایتها را فیلتر کرده و آنها را در رتبهبندی جستجو پایین بیاورد و اطمینان حاصل کند که کاربران نتایج دقیقتر و قابل اعتمادتری دریافت میکنند. اساساً، این الگوریتم نتایج جستجو را تمیز می کند و کیفیت اطلاعات نشان داده شده به کاربران را بهبود می بخشد.
23- الگوریتم فِرد
الگوریتم فرد گوگل که در 8 مارس 2017 راه اندازی شد، وب سایت هایی را هدف قرار می دهد که درآمد حاصل از تبلیغات را بر تجربه کاربری ترجیح می دهند. بسیاری از این سایتها از طریق کلیک یا استراتژیهای تبلیغاتی بیش از حد تهاجمی، ترافیک ایجاد میکنند و از نظر محتوا ارزش کمی دارند. پس از بهروزرسانی Fred، وبسایتهایی با تبلیغات بیش از حد، محتوای با کیفیت پایین، بسیاری از لینکهای وابسته و تعامل ضعیف با مخاطبان، افت قابلتوجهی در رتبهبندی خود مشاهده کردند – برخی از آنها تا 90 درصد کاهش ترافیک را تجربه کردند. هدف الگوریتم فرد ارتقای وب سایت هایی است که به جای تلاش برای کسب درآمد از بازدیدها، بر ارائه محتوای مفید و جذاب به کاربران تمرکز می کنند.
24- الگوریتم Medic update
به روز رسانی Medic که در سال 2018 در سطح جهانی راه اندازی شد، تأثیر قابل توجهی بر وب سایت های پزشکی، بهداشتی، مالی و سبک زندگی داشت. در حالی که در ابتدا تصور می شد که سایت های پزشکی را به طور خاص هدف قرار دهد، طیف گسترده ای از صنایع، به ویژه آنهایی که توصیه هایی را ارائه می دهند که می تواند بر رفاه افراد تأثیر بگذارد را تحت تأثیر قرار داد. این الگوریتم قابلیت اطمینان محتوا را به ویژه در سایتهای «پول شما، زندگی شما» (YMYL) که شامل صنایعی مانند بهداشت و امور مالی است، در اولویت قرار میدهد. برای حفظ رتبه های خوب، وب سایت ها باید بر محتوای با کیفیت بالا که توسط کارشناسان خبره نوشته شده است تمرکز کنند. اگر وبسایتی دارید که محصولات یا خدمات پزشکی یا مرتبط با سلامتی را ارائه میدهد، اطمینان از محتوای دقیق و با پشتوانه متخصصان کلید پیروی از این الگوریتم است.
25- الگوریتم Google Knowledge Graph
الگوریتم گراف دانش در سال 2012 برای بهبود دسترسی کاربران به اطلاعات واقعی معرفی شد. با جمعآوری بیش از 500 میلیون مفهوم و بیش از 3.5 میلیارد واقعیت، این الگوریتم میتواند موجودیتهای دنیای واقعی (مانند افراد، مکانها و رویدادها) و روابط آنها را برای ارائه نتایج جستجوی دقیقتر به هم متصل کند. این به Google کمک میکند تا زمینههای پشت پرسشهای جستجو را درک کند و پاسخهای سریعتر و مرتبطتری را به کاربران بدهد. با گذشت زمان، نمودار دانش رشد کرده و اطلاعات بیشتری را در بر می گیرد و آن را به ابزاری غنی و پویا برای کاربرانی تبدیل می کند که به دنبال اطلاعات عمیق و دقیق در موضوعات مختلف هستند.
26- الگوریتم Page Authority
Page Authority، معیاری است که توسط شرکت نرم افزار SEO Moz توسعه یافته است، در سال 2012 برای اندازه گیری قابلیت اعتماد صفحات وب معرفی شد. بر اساس فاکتورهایی مانند تعداد و کیفیت بک لینک ها، سیگنال های اجتماعی، MozRank و MozTrust امتیازی از 0 تا 100 به شما اختصاص می دهد. صفحاتی که امتیازات اعتبار بالاتری دارند معتبرتر در نظر گرفته می شوند و احتمالاً در نتایج جستجو رتبه بالاتری دارند. این الگوریتم به گوگل و سایر موتورهای جستجو کمک می کند تا صفحاتی را که ارزش ارائه می کنند و مورد اعتماد کاربران و کارشناسان هستند، اولویت بندی کنند. سایتهایی که تبلیغات بیش از حد یا محتوای با کیفیت پایین دارند، امتیاز کمتری کسب میکنند، که بر روی دید آنها در نتایج جستجو تأثیر میگذارد.
27- الگوریتم ماه عسل
الگوریتم ماه عسل که در سال 2004 معرفی شد، به صفحات وب جدید اجازه می دهد تا به طور موقت در صفحه اول نتایج جستجوی گوگل ظاهر شوند. این تقویت اولیه به گوگل کمک می کند تا واکنش کاربران به محتوای جدید را ارزیابی کند. پس از یک تا دو روز، صفحه مورد بررسی قرار می گیرد تا مشخص شود که کجا باید به طور دائم رتبه بندی شود. اگر صفحه تعامل مثبت کاربر را جذب کند – مانند کلیک ها، زمان صرف شده در سایت و نرخ پرش پایین – ممکن است رتبه بالاتری را حفظ کند. با این حال، اگر کاربران به سرعت صفحه را ترک کنند یا با آن درگیر نشوند، رتبه آن پس از پایان دوره “ماه عسل” کاهش می یابد.