در مقاله تاریخچه موتور های جستجو شرح دادیم که دلیل اصلی پیشرفت گوگل نسبت به سایر موتور های جستجو، آپدیت های مکرر الگوریتم های گوگل طی سال ها بوده است. الگوریتم هایی که در نهایت به بهبود تجربه کاربری و علاقه بالای کاربران به جستجو در این سرچ انجین شده است. اما پشت هر الگوریتم داستانی نهفته است و ما سعی داریم در این مقاله پس از بررسی هر الگوریتم، به تمامی آپدیت های الگوریتمی تایید شده و تایید نشده از طرف گوگل بپردازیم.
الگوریتم گوگل چیست؟
قبل از اینکه هر الگوریتم و تغییراتی که در رتبه بندی گوگل ایجاد کرد را بیان کنیم، بهتر است کمی در مورد الگوریتم ها و نحوه عملکرد آن ها بدانیم. الگوریتم موتور های جستجو سیستم رتبه بندی پیچیده ای دارند که بینهایت محتوای وب را بر اساس جستجوی کاربر مرتب می کنند.
همانطور که در مقاله سئو چیست نیز به نحوه فهرست بندی صفحات وب اشاره کردیم، سه مرحله اصلی Discover، Index و Ranking پیش روی هر موتور جستجوست و گوگل در چند میلی ثانیه شاید میلیون ها نتیجه را برای کاربر به نمایش می گذارد. نقش الگوریتم ها در ایندکس کردن مطالب و رتبه بندی آن ها بسیار پر رنگ است و نه تنها نزدیک ترین نتایج به جستجوی شما را نشان می دهند بلکه کیفیت جستجو را هم افزایش داده اند.
الگوریتم های رتبه بندی گوگل چگونه کار می کنند؟
الگوریتم های رتبه بندی گوگل دارای مجموعه ای از استاندارد های کدنویسی شده هستند که با استفاده از یادگیری ماشینی، هوش مصنوعی و … مرتبط ترین نتایج را به شما نشان می دهند. نتایج هر جستجویی معمولا به موارد زیر بستگی دارد:
- عبارت یا کلمه کلیدی سرچ شده
- مرتبط بودن محتوای وبسایت با عبارت جستجو شده
- کیفیت محتوای ایندکس شده (رعایت موارد مربوط به سئو محتوا)
- کدنویسی و ناوبری وبسایت
- کمیت و کیفیت بک لینک هایی که وبسایت ها دریافت کرده اند.
- لوکیشن و زبان جستجوی شما
گوگل پاسخ به جستجوی شما را در صفحاتی که اصطلاحاً SERP نامیده می شود، رتبه بندی می کند. برای کسب و کار های اینترنتی که بر سئو تکیه دارند و ورودی اصلی آن ها از طریق گوگل است، الگوریتم های این موتور جستجو اهمیت بالایی دارد. الگوریتم های گوگل تعیین می کنند که کدام سایت ها از نظر کیفیت و کمیت، محتوایی مرتبط با عبارت جستجو شده دارند.
الگوریتم های مهم گوگل کدامند؟
خب تا اینجای کار با اساس کار الگوریتم ها و چرایی وجود آن ها آشنا شدیم بهتر است به سراغ برخی از معروف ترین الگوریتم های گوگل برویم:
- الگوریتم FRED
- الگوریتم پاندا | Panda
- پنگوئن | Penguin
- کبوتر | Pigeon
- مرغ مگس خوار | Hummingbird
- الگوریتم تازگی محتوا | Freshness
- الگوریتم مدیک | Medic
- الگوریتم BERT
- گوگل دنس
- الگوریتم رنک برین | RankBrain
- Mobile Friendly Update
- سندباکس گوگل
- الگوریتم گوگل کافئین
- الگوریتم Payday
- الگوریتم تطبیق دقیق دامنه (EMD)
- Florida الگوریتم
- الگوریتم Florida 2
- الگوریتم Jagger
- الگوریتم Vince
- الگوریتم Page Layout
الگوریتم فرد | Fred algorithm (توسط گوگل تایید نشده)
اول از همه مشخص کنیم اسم Fred در آن سال از طرف یکی از وبمستران (Gary Illyes) به آن داده شد. یکی از قوی ترین تاثیرات روی SERP را با الگوریتم Fred در اواخر سال 2017 میلادی تجربه کردیم. الگوریتم فرد بطور مشخص و سرسختانه جلوی ورود کاربر به وبسایت هایی که با تکنیک های کلاه سیاه به رتبه های برتر رسیده بودند را گرفت.
این الگوریتم بیشتر با قصد جریمه کردن وبسایت های با محتوای بی ارزش، با تبلیغات زیاد و اذیت کننده برای کاربر بودند، وارد هسته رتبه بندی گوگل شد و بسیاری از پروژه های سئو را با شکست فاجعه باری روبرو کرد.
الگوریتم پاندا | Panda algorithm (توسط گوگل تایید شده)
در سال 2011 فضای وب توسط پاندا پاکسازی شد. اولین تلاش گوگل برای مقابله با محتوای بی ارزش، کپی و اسپم، کمی بعد از معرفی الگوریتم کافئین (افزایش قدرت ایندکس گوگل) با موفقیت پشت سر گذاشته شد و تا الان هم آپدیت های زیادی برای الگوریتم پاندا عرضه شده است.
برخی محتوای کم ارزش را با محتوایی با تعداد کلمات کم اشتباه می گیرند. در بسیاری از موارد تعداد بالایی از صفحات با کلمات زیر 300-400 کلمه که به سوال مشخصی پاسخ دقیق و با ارزشی داده باشند، در هنگام جستجوی کاربر نشان داده می شوند.
جالب است بدانید الگوریتم پاندا تا سال 2016 فقط حدود 28 بار آپدیت شد و هر روز دقیق تر محتوا های کرول شده را تحت نظر می گیرد.
الگوریتم پنگوئن | Penguin algorithm (توسط گوگل تایید شده)
مقابله با تکنیک های اصلی سئو کلاه سیاه و جریمه کردن وبسایت هایی با بهینه سازی بیش از حد، کیورد استافینگ، لینک سازی اسپم و … رسما در سال 2012 به عهده الگوریتمی قرارداده شد که بلافاصله به نام پنگوئن لقب گرفت. همانطور که در مقالات قبلی به آن اشاره شد، موتور جستجوگر گوگل با ایده نشان دادن صفحاتی که بیشتر از همه بک لینک از سایز سایت ها داشتند ایجاد شد.
همین قابلیت، امکان ایجاد تعداد بالایی لینک سازی اسپم مانند لینک های کامنتی، لینک های فوتر، وبسایت های لینک فارم و … را فراهم کرد و عملا در آن سال ها در بسیاری از کلمات کلیدی، کاربر وارد سایت هایی می شد که با تکرار کلمه کلیدی و دریافت لینک های زیاد، علی رغم محتوای بی کیفیت به لینک های بالا می رسید.
پنگوئن آمده است تا با این وبسایت ها مقابله کند!
الگوریتم کبوتر | Pigeon algorithm (تایید شده توسط گوگل)
اهمیت سئو محلی بعد از به روز رسانی الگوریتم کبوتر دوچندان شد. در جولای سال 2014 پارامتر های جغرافیایی و کسب و کار های محلی بر نتایج جستجوی کاربر تاثیر مستقیم گذاشت.
هنگامی که شما عبارتی مانند “رستوران دریایی” را جستجو می کنید، رستوران های نزدیک خود را علاوه بر نقشه گوگل، به شکل مرتب شده بر اساس امتیازات و نزدیکی به شما بالاتر از سایر نتایج جستجو قرار می گیرند.
الگوریتم مرغ مگس خوار | Hummingbird algorithm (تایید شده)
جالب است نه؟ اکثر الگوریتم های گوگل به نام های حیوانات هستند اما واقعا این اسم ها تصادفی انتخاب نشده اند. ریز بینی و دقت مرغ مگس خوار باعث شده نام آن روی الگوریتمی که باعث تغییرات معنایی در جستجو و گراف دانش شده است، قرار داده شود.
از سال 2013 که گوگل بطور رسمی عرضه این الگوریتم را تایید کرد، شخصی سازی نتایج برای بهبود تجربه کاربری در میلیارد ها جستجو دیده می شود. مرغ مگس خوار با توانایی بالایی که در جستجوی معنایی دارد می تواند در موارد مختلف، هدف جستجوی کاربر از کلمات کلیدی مختلف را بفهمد. به عنوان مثال “شیر جنگل”، “شیر آب” و “شیر خوراکی” سه چیز متفاوت از کلمه “شیر” هستند.
در حال حاضر اگر هر یک را جستجو کنید، مرغ مگس خوار گوگل دست به کار می شود و به سرعت منظور شما را از جستجو متوجه می شود.
علاوه بر این جستجو هایی مانند سن جواد نکونام، قد اوسین بولت یا سن پاپ فرانسیس جوابی حاضر و آماده را برای شما به ارمغان می آورد.
الگوریتم تازگی محتوا | Freshness algorithm (تایید شده)
اواخر سال 2011 نیز شاهد الگوریتم جالبی بودیم که روی تعداد بسیار بالایی از نتایج گوگل تاثیر گذاشت. هدف اصلی این به روز رسانی هسته الگوریتمی گوگل، رسیدن محتوای به روز در بخش هایی مانند سیاست، اخبار، رویداد ها و … به مخاطب بود.
تاثیر این الگوریتم روی نتایج جستجو بخصوص در زمان هایی که کلمه کلیدی خاصی ترند می شود، قابل مشاهده است. استفاده ای که شرکت های سئو معمولا از این الگوریتم می کنند، آپدیت نگه داشتن دائم محتوا، محتوای همیشه سبز (Ever Green) و توجه به محتوای ترند است.
آپدیت ها می تواند شامل نگارش متنی بخصوص و اضافه کردن آن به محتوای فعلی، اضافه کردن تصاویر و ویدئو های مرتبط با موضوع مقاله و یا آپدیت متاتایتل باشد که با جستجوی زمانی مطابقت داشته باشد. (مانند: بهترین شرکت های طراحی سایت در سال 1400)
الگوریتم مدیک | Medic algorithm (تایید شده)
سال 2018 زمانی بود که گوگل از به روز رسانی هسته الگوریتمی خود به نام مدیک خبر داد. البته این نام را خود گوگل روی آن نگذاشت و Barry Schwartz به دلیل تاثیرات آن در حوزه سلامتی این نام را روی آن گذاشت. این الگوریتم باعث ایجاد تغییرات بالایی در وبسایت هایی شد که به سلامت و پزشکی مرتبط بودند.
تاثیرات این آپدیت هسته الگوریتمی روی وبسایت های دسته بندی های زیر بیشتر بوده است:
- وبسایت هایی که موارد مربوط به بیماری ها، شرایط سلامتی جسمی و روانی را منعکس می کنند.
- وبسایت هایی که اطلاعات مالی و حقوقی ارائه می دهند.
- وبسایت های فروشگاهی
- سایت هایی با سطح پایینی از A.T (تخصص، اعتبار و اعتماد) و با پتانسیل آسیب رساندن با رساندن اطلاعات نادرست به مردم
الگوریتم برت | BERT algorithm (تایید شده)
هوش مصنوعی گوگل با نام BERT جزو الگوریتم هایی بود که مشخصا به بهبود تجربه کاربری منجر شد. این الگوریتم به گوگل جهت شناخت بهتر کلمات کلیدی کمک می کند. در کل باید گفت که برت به سیستم گوگل کمک می کند درک بهتری از فرایند طبیعی زبان کشور های مختلف داشته باشد.
BERT که مخفف عبارت (Bidirectional Encoder Representations from Transformers) که معنای فارسی چندان دقیق ندارد به گوگل کمک می کند تا مفاهیم قبل و بعد یک کلمه کلیدی را در هر زبانی به هم متصل کند و دقیق ترین نتایج را نشان بدهد.
الگوریتم رقص گوگل | Google Dance algorithm (تایید نشده)
گوگل دنس را نمیتوان یک الگوریتم شناخته شده دانست و آن را صرفا از زبان سئو کار ها ممکن است شنیده باشید. این عبارت هنگامی استفاده می شود که صفحه ای در مورد یک کلمه کلیدی خاص نوشته می شود و به آن فرصت دیده شدن توسط گوگل داده می شود. چنانچه کاربر از این سایت تازه وارد راضی باشد (بانس ریت پایین، زمان سپری شده بالا در سایت، نرخ CTR و …) تاثیر خوبی در بهبود رتبه آن دارد.
اما اصل این اصطلاح در زمانی به کار می رفت که گوگل آپدیت های روزانه کوچک بسیاری در طول روز انجام می داد و بصورت مداوم رتبه های وبسایت ها جا به جا می شد و تعداد مقالات انگلیسی در مورد آن نیز از انگشتان یک دست فراتر نمی رود.
الگوریتم رنک برین | RankBrain algorithm (تایید شده)
26 اکتبر 2015 را می توان تاریخ انقلابی ترین الگوریتم گوگل دانست. طبق گفته خود گوگل، این الگوریتم سومین فاکتور تاثیر گذار روی صفحات SERP است. یادگیری ماشینی گوگل در الگوریتم رنک برین امکان نشان دادن بهینه ترین نتیجه، حدس کلمه درست از غلط، ادامه مطلب با توجه به سینتکس های پر استفاده و … را فراهم کرد. همچنین مفهوم CTR و همچنین آنالیز رفتار کاربر مانند بازگشت به صفحه جستجو، بانس ریت و … نیز مورد توجه قرار گرفت.
همانطور که گوگل اعلام کرد:
راهی در جهت بهینه سازی سایت برای الگوریتم Rank Brain وجود ندارد، سعی کنید سایت را برای کاربر بهینه کنید.
الگوریتم موبایل فرندلی | Mobile Friendly algorithm (تایید شده)
از آوریل 2015 گوگل که از پیشرفت میزان جستجو توسط تلفن های همراه هوشمند آگاه بود، تصمیم گرفت با رونمایی از الگوریتم mobilegeddon خود وضعیت اسفبار فضای وب را برای تلفن های همراه بهبود ببخشد.
هر کسی می خواهد داخل بازی گوگل باشد، باید وبسایت خود را برای تلفن های همراه بهینه سازی کند! تمام.
ریسپانسیو بودن صفحات وب برای موبایل، استفاده از viewport صحیح، بهینه سازی سرعت و … می تواند باعث دید مثبت گوگل به وبسایت شما شود.
در حال حاضر گوگل سرچ کنسول حتی یک تست موبایل فرندلی هم راه اندازی کرده تا تطابق وبسایت خود را با دستگاه های تلفن همراه بسنجید. برای اجرای تست روی لینک روبرو کلیک کنید: https://search.google.com/test/mobile-friendly
علاوه بر این اگر عبارت Mobile Friendly Test را هم تایپ کنید، الگوریتم های جذاب گوگل آن را مستقیم برای شما می آورند!
الگوریتم جعبه شنی | SandBox algorithm (تایید نشده)
سندباکس گوگل نام عملکردی محدود کننده برای وبسایت های جدید است که در ابتدای فعالیت، رتبه های خوبی به آن ها نمی دهد. البته گوگل همواره نظرات در مورد سندباکس را رد کرده اما اکثر وبمستران در مورد وبسایت های جدید چنین اینرسی را تجربه کرده اند.
وجود چنین الگوریتمی با منطق کاملا جور در می آید: وبسایت ها در کلمات کلیدی بک لینک های بالایی دارند، مدت هاست از زمان تاسیس آن ها می گذرد و علاوه بر انتشار محتوا های بالا، تجربه کاربری مثبتی هم ایجاد کرده اند. شما اگر بجای گوگل بودید به وبسایتی بیشتر اعتماد می کردید که پنج سال از عمر دامنه آن می گذرد و از توسط چندین وبسایت معرفی شده است یا سایتی تازه کار که شناختی از آن ندارید؟
فعالیت هایی مانند دریافت بک لینک از محتوا های مشابه از سایت های معتبر، سوشال سیگنال، محتوای با کیفیت و جستجوی برند می تواند به سریع تر شدن زمان فرار از سندباکس گوگل منجر شود. با رشد وبسایت بعد از مدتی فعالیت اولیه و جدایی از سندباکس، هانی مون یا ماه عسل گفته می شود.
الگوریتم گوگل کافئین | Caffeine algorithm (تایید شده)
الگوریتم گوگل کافئین پروژه ای قدیمی است که همچنان در حال آپدیت است. طبق گفته گوگل در سال 2010 اضافه کردن این الگوریتم به هسته رتبه بندی ها باعث افزایش سرعت ایندکس کردن تا 50 درصد شد. استفاده ای که از این الگوریتم می توان کرد، انتشار منظم محتوا و عادت دادن کرولر ها به ایندکس منظم وبسایت است.
همانطور که در بخش الگوریتم تازگی محتوا به آن اشاره کردیم، نشان دادن نتایج به روز در اخبار، مطالب ترند، مباحث پزشکی و … برای گوگل بسیار مورد اهمیت هستند. گوگل کافئین به چنین وبسایت هایی اجازه می دهد به لحظه محتوای خود را ایندکس و در اختیار مخاطب قرار دهند.
الگوریتم گوگل Payday | Payday loan algorithm (تایید شده)
در سال 2013 و 2014، گوگل آپدیتی را در هسته الگوریتمی خود تایید کرد که با سایت های محتوای غیر اخلاقی، قمار و … که در کلمات کلیدی دیگر سعی در گرفتن رتبه و ورودی داشتند، مقابله می کند.
نسخه 2 این الگوریتم که در سال 2014 عرضه شد هم بطور مشخص روی وبسایت هایی که با تکرار زیاد کلمات کلیدی، ورود زیاد مخاطب از سایت های دیگر با CPC و یا تکنیک های کلاه سیاه مانند PBN تاثیر منفی گذاشت و رتبه های آن ها را کاهش داد یا بطور کل از نتایج جستجو آن ها را حذف کرد.
الگوریتم تطبیق دقیق دامنه | EMD algorithm (تایید شده)
این آپدیت در ماه سپتامبر سال 2012 برای کاهش فضای اسپمی جستجو انجام شد و بر اساس آن، وبسایت هایی که با دامنه دقیقا مشابه کلمه کلیدی سرچ شده بودند و کیفیت مناسبی نداشتند، با کاهش رتبه بسیار بالایی مواجه شدند. (Exact Match Domain به عنوان مثال برای کلمه کلیدی travel وبسایت travel.com است کخ در حال حاضر در صفحه اول هم نیست.)
در آن زمان یکی از تکنیک هایی که تاثیر بالایی روی سئو سایت داشت، انتخاب نام دامنه دقیقا مشابه با کیورد اصلی بود. به عنوان مثال برای کلمه کلیدی creamy pasta recipes وبسایت creamypastarecipes.com به راحتی رتبه های بالا را دریافت می کرد ولی محتوای غنی و کاملی نداشت.
الگوریتم فلوریدا | Florida algorithm (تایید شده)
الگوریتم فلوریدا یکی از قدیمی ترین آپدیت های الگوریتمی گوگل است که در سال 2003 با تایید مستقیم مت گاس معرفی شد. این الگوریتم اولین به روز رسانی بود که تغییرات عمده ای در دنیای سرچ ایجاد کرد و به نوعی سئو را وارد دنیایی تازه کرد.
همانند به روز رسانی های همیشگی گوگل، فلوریدا نیز بسیاری از کسب و کار های غیر اسپم را هم یک شبه از بین برد. بعد از این آپدیت تا یک سال بعد، مدیر اسپمی گوگل به صورت موردی لیست وبسایت های ضرر دیده ولی با عملکرد مناسب را دریافت می کرد و سعی داشت آن ها را بازیابی کند که زیاد هم موفق نبود.
تئوری غالب در مورد فلوریدا، تاثیر آن روی بک لینک های سایت بود. در آن زمان مسئله PageRank بسیار مهم بود و به همین دلیل وبسایت ها به هر طریقی که شده قصد داشتند با گرفتن بک لینک از سایر سایت ها PageRank خود را بالا ببرند.
الگوریتم فلوریدا 2 | Florida 2 algorithm (تایید شده)
انگار گوگل علاقه خاصی به آپدیت هسته الگوریتمی خود در ماه مارس دارد. دنی سالیوان از تیم گوگل در 13 مارس 2019 از یک آپدیت بزرگ در هسته الگوریتمی خود خبر داد. این آپدیت هسته الگوریتمی هنوز هم توسط گوگل دارای اسم خاصی نیست و به دلیل همزمان شدن با کنفرانس جهانی Pubcon Florida در هر دو بار آپدیت به این نام معروف شده است.
این آپدیت آنچنان قوی بود که بر اساس آمار وبسایت SemRush ورودی تعداد زیادی وبسایت به صفر رسید! آپدیت فلوریدا 2 همچنین باعث اهمیت بیشتر به بهینه سازی سرعت، کیفیت بک لینک ها، اهمیت بیشتر به لینک سازی داخلی و آپدیت محتوا شد.
الگوریتم جَگر | Jagger algorithm (تایید شده)
در 2005 گوگل با آپدیت ها مکرر که بعد ها به آپدیت های Jagger معروف شدند، تلاش زیادی برای از بین بردن تبادل لینک، لینک فارم و خرید بک لینک انجام داد. این نام که از نام خوانند بند رولینگ استونز برداشته شده است را Brett Tabke یکی از وبمستران برتر روی این الگوریتم قرار داد.
الگوریتم جگر بطور مستقیم روی محتوای تکراری و دارای حق نشر، بک لینک های اسپمی، ریدایرکت سایت ها روی هم برای جذب ترافیک، محتوای مخفی و ورود مخاطب به سایت دیگر با پاپ آپ تاثیر گذاشت و مانند Mick Jagger سر و صدای زیادی بین وبمستران به پا کرد.
الگوریتم وینس | Vince algorithm (تایید نشده)
مت گاس از این تغییر الگوریتمی به نام “جزئی” یاد کرد اما وبمستران معتقدند آپدیت وینس بشدت به نفع برند های بزرگ بوده است. این به روز رسانی به دلیل تحسین تلاش های یکی از مهندسین گوگل به نام او لقب گرفت. اما آیا واقعا به این آپدیت نیازی بود؟ برند های بزرگ به گوگل پول پرداختند؟ ماجرا از چه قرار است؟
خب یکی از اصلی ترین راه های بهبود تجربه کاربری، رساندن پاسخ های درست و قابل اعتماد به مخاطب است. برند ها راه حل مناسبی در نظر گوگل بودند که محصولات، خدمات و پاسخ هایشان بیشتر به درد مردم می خورد. این آپدیت کمی ظالمانه بود اما واقعا ارزش گذاری و اعتماد بیشتری بین کاربر و گوگل ایجاد کرد.
الگوریتم چیدمان صفحه | Page Layout algorithm (تایید شده)
آخرین الگوریتمی که به بررسی آن می پردازیم، الگوریتم Page Layout گوگل است که برای بهبود تجربه کاربری بعد از الگوریتم پاندا در سال 2012 معرفی شد و 4 آپدیت را هم تجربه کرد. تبلیغات بیش از حد روی یک صفحه بخصوص آموزشی باعث آزار خواننده می شود و این موضوعی بود که در الگوریتم چیدمان صفحه گوگل به آن توجه ویژه ای شد.
آخرین الگوریتم گوگل
طبق آخرین آمار وبسایت ماز، آخرین آپدیت الگوریتمی گوگل که توسط این شرکت تایید شده است، مربوط به تاریخ 6 دسامبر 2021 بوده است. این آپدیت در قسمت Top stories در کلمات ترند و پر سرچ دسکتاپ به این صورت است که بجای یک ستون، از دو ستون برای قسمت داستان های برتر یا برگزیده استفاده می شود.
بررسی آپدیت های الگوریتمی گوگل از ابتدا تاکنون
- آپدیت فلوریدا (2003): جلوگیری از ترفند های کلاه سیاه مانند کیورد استافینگ، و مخفی سازی لینک ها و …
- آپدیت Jagger (2005): تمرکز اصلی روی بک لینک های اسپمی
- آپدیت Big Daddy Update (2005): تمرکز بر مشکلات تکنیکال سایت
- Vince (2009): اهمیت بیشتر به برند ها و سرچ برند
- الگوریتم کافئین (2009): افزایش سرعت ایندکس گوگل
- الگوریتم پاندا (2011): افزایش اهمیت به کیفیت محتوا
- الگوریتم تازگی (2011): اهمیت به آپدیت محتوا و محتوای ترند
- پنگوئن (2012): اهمیت مفهوم پنالتی گوگل برای وبسایت هایی که با تکنیک های کلاه سیاه رشد کرده بودند.
- الگوریتم EMD (2012): کاهش اهمیت نام دامنه در سئو
- Payday Loan (2013): پنالتی کردن وبسایت های اسپم در بخش های خاص
- الگوریتم مرغ مگس خوار (2013): پاسخ بهتر گوگل به جستجوی پیچیده کاربر
- الگوریتم کبوتر (2014): اهمیت بالا به کسب و کار های محلی و لوکال سئو
- آپدیت موبایل فرندلی (2015): کاهش رتبه وبسایت هایی که با مرورگر تلفن همراه سازگار نبودند.
- الگوریتم RankBrain (2015): افزودن یادگیری ماشینی در رتبه بندی نتایج جستجو
- فلوریدا 2 (2019): به روز رسانی هسته الگوریتمی با هدف بهبود رضایت کاربر
- آپدیت BERT (2019): هوش مصنوعی پیشرفته برای درک نیت کاربر از جستجو
- آپدیت فیچر اسنیپت (2020): این آپدیت اغلب در ایران صرفا روی FAQ schema تاثیر گذاشت و بیش از 2 عدد از این اسکیما را نشان نمی دهد.
- Passage Ranking (2021): در نظر گرفتن بخشی از متن یک صفحه، تطابق آن هنگام جستجو کاربر و نشان دادن آن در لحظه برای یافتن پاسخ پرسش جستجو شده. این قابلیت در ایران فعال نیست.
- آپدیت های مکرر هسته الگوریتمی برای بی ارزش کردن لینک ها اسپم (2021)
11 پاسخ
بطور کلی عقیده ای که من دارم اینه باید اصول اصلی سئو رو رعایت کنیم چون بلخره الگوریتم ها هر چقدر هم پیشرفت کنن با اصول سئو نمیتونن مخالف بشن. نوشتن محتوای خوب و جذاب مث مقاله خودتون، بک لینک های طبیعی و غیر اسپم، پشتوانه سوشال سیگنال و برندینگ در نهایت هر الگوریتمی هم بیاد باز ضربه نمیزنه به ما
دقیقا درست میفرمایید.
سلام .راجب به بایدو ، بینگ ،داک داک گوهم یکم اطلاعات بهمون بدید.
سلام مهتاب عزیز
بایدو موتور جستجوی چینی هاست و حدود 80 درصد جستجوهای این کشور از طریق بایدو انجام میشه. البته اینکه دولت چین گوگل رو محدود کرده هم بی تاثیر نیست. ولی در کل بایدو موتور جستجوی قدرتمندی هست.
بینگ هم که برای مایکروسافت هست و سعی کرده برخی الگوریتم هارو از گوگل کپی کنه اما با وجود اینکه در ویندوز به عنوان موتور جستجوگر ترجیح داده شده هست، باز هم درصد استفاده از بینگ به بیش از 4 درصد در جهان نمیرسه.
داک داک گو خیلی تو امریکا سروصدا کرده و بیشتر به دلیل اهمیت حفظ حریم خصوصی برای شهروندان آمریکایی تا این حد رشد کرده ولی باز هم تا گوگل شدن فاصله زیادی داره. این موتور جستجو در سال 2008 ینی حدود 10 سال بعد از گوگل اومده.
گوگل E.A.T هم ممنون میشم ی توضیحی بدین.
بر اساس عقیده اشتباهی که بین سئوکار های ایرانی رواج پیدا کرده، google EAT یک الگوریتم نیست و بصورت مستقیم روی رتبه بندی ها تاثیر نمی گذارد. E.A.T مخفف سه کلمه authoritativeness, expertise و trustworthiness به معنای تخصص، قدرت (اعتبار) و اطمینان است.
بر اساس EAT در محتواهایی که در نهایت امکان صرف هزینه های مالی، جانی یا روحی برای کاربر دارند می بایست معتبر و قابل اعتماد باشند و از اثرات مخرب محتوا های منتشر شده توسط افراد نابلد به نوعی جلوگیری می شود. اگه خاطرتون باشه یکی از تاپیک هایی که اون هم به اشتباه الگوریتم نام برده میشه YMYL یا your money your life هست. اگر کسب و کار شما در این حوزه هاست، EAT بسیار مورد اهمیت است.
احتمالا در آینده مقاله ای جامع در مورد گوگل ایت داشته باشیم.
che ali. mamnoon az tozihatetoon.
خواهش میکنم. ممنون از مطالعه شما
فوق العاده جذاب بود
ممنون میشم جداگانه به دیتیل در مورد هر الگوریتم صحبت کنید
حتما مقالات مرتبط به الگوریتم های جذاب گوگل در حال نگارش هست.