آشنایی با الگوریتم های گوگل

دنیای اینترنت نیز قوانین خود را دارد! گوگل به‌عنوان بزرگ‌ترین موتور جست‌و‌جوی دنیا، به منظور افزایش کیفیت سرویس‌دهی به کاربران، قوانین مختلفی را وضع کرده است. قوانین گوگل در زمینه سئو تضمین می‌کنند که هیچ وب‌سایتی بدون فراهم کردن محتوای مناسب و مفید جایگاه بالایی به‌دست نیاورد و به‌اصطلاح حق سایر وب‌سایت‌ها را نخورد. برای بررسی رعایت این قوانین، گوگل الگوریتم‌های مختلفی طراحی کرده است که هرکدامشان رعایت یک نوع از این قوانین را تضمین می‌کنند. الگوریتم‌های سئو گوگل و قوانین گوگل کمک شایانی به سامان‌دهی وب‌سایت‌ها کرد؛ به همین دلیل دیگر در هنگام جست‌وجو در اینترنت شاهد سایت‌های تبلیغاتی یا اسپم نیستیم. با توجه به حضور این ناظران گوناگون، تولیدکنندگان محتوا باید اصول تولید محتوای صحیح را یاد بگیرند؛ و اگر با طرز کار هر یک از این الگوریتم‌ها آشنا باشند خیلی راحت می‌توانند از بروز اشتباهاتی که منجر به جریمه توسط گوگل می‌شود، جلوگیری کنند.
در این مقاله الگوریتم‌ های سئو گوگل را معرفی می‌کنیم.

الگوریتم های گوگل
الگوریتم های گوگل

الگوریتم پاندا

الگوریتم پاندا در سال 2011 و برای جلوگیری از موفقیت محتواهای بی‌کیفیت طراحی شد. محرک اصلی برای تولید این الگوریتم، وب‌سایت‌های به‌اصطلاح مزرعه محتوا (content farm) بودند. در این وب‌سایت‌ها همانند یک مزرعه تعداد خیلی زیادی از متن‌های کوتاه و بی‌کیفیت، با تکرار زیاد یک کلمه کلیدی، قرار می‌گرفت؛ که باعث می‌شد این وب‌سایت‌ها توسط موتور جست‌وجو به عنوان نتیجه مناسب شناسایی شوند. الگوریتم پاندا محتوای وب‌سایت شما را به‌دقت بررسی می‌کند و بر اساس فاکتورهایی تصمیم می‌گیرد که آیا محتوای شما ارزش بالایی دارد یا نه. از جمله این فاکتورها می‌توان به موارد زیر اشاره کرد:

استفاده بیش از حد از کلمات کلیدی

این الگوریتم می‌تواند تشخیص دهد که آیا در یک متن کلمات کلیدی به میزان مناسب و در مکان مورد نیاز به کار برده شده‌اند یا نه. بنابراین در زمان تولید محتوا در نظر داشته باشید که اگر یک کلمه را به‌صورت مصنوعی تکرار کنید، گوگل این تکرار را شناسایی کرده و نه تنها این امر باعث بیشتر دیده شدن وب‌سایت شما نمی‌شود؛ بلکه نتیجه عکس خواهد داشت.

کپی بودن متن

از دیگر مسائلی که گوگل برای مشخص کردن کیفیت محتوا به آن توجه دارد کپی بودن است. الگوریتم پاندا با حوصله تمام متن و محتوای شما را مورد بررسی قرار می‌دهد. بنابراین به‌سرعت متوجه کپی بودن یک محتوا می‌شود. لازم به ذکر نیست که در صورت کپی کردن شامل جریمه گوگل می‌شوید و وب‌سایت شما به رتبه‌های پایین تبعید می‌شود.

تبلیغات

استفاده از تبلیغات پرتکرار و آزاردهنده و یا تبلیغات در مکان‌های نادرست باعث کاهش کیفیت کار شما می‌شود و درنهایت الگوریتم پاندا نیز صفحاتی را که با تبلیغ احاطه شده‌اند یا تبلیغات پاپ‌آپ زیادی دارند، نمی‌پسندد و آن‌ها را به‌عنوان محتوای بی‌کیفیت طبقه‌بندی می‌کند. رعایت علائم نگارشی و ارزش محتوا، به معنی اینکه محتوای هر صفحه جدید باشد و یک متن را به‌صورت‌های مختلف تکرار نکنید، از دیگر مسائل مورد توجه الگوریتم پاندا هستند.

الگوریتم پنگوئن

با نگاه به لیست الگوریتم‌های سئو گوگل به الگوریتم پنگوئن می‌رسیم. الگوریتم پنگوئن یکی از مهم‌ترین الگوریتم‌ های گوگل است؛ که می‌توان گفت جزئی از هسته الگوریتم‌های سئو گوگل محسوب می‌شود. این الگوریتم وظیفه شناسایی لینک‌های اسپم را دارد. هدف اصلی الگوریتم پنگوئن شناسایی لینک‌های بی‌کیفیت است. الگوریتم پنگوئن کیفیت بک‌لینک‌های یک وب‌سایت را بررسی می‌کند. کیفیت بک‌لینک‌ها با چندین فاکتور مورد سنجش قرار می‌گیرد.

اعتبار وب‌سایتی که لینک شما را در صفحه خود قرار داده است. سایت‌هایی که اعتبار پایینی دارند، از جمله مزارع محتوا، به‌شدت مورد غضب الگوریتم پنگوئن هستند.  ارتباط موضوعی الگوریتم پنگوئن بررسی می‌کند که آیا وب‌سایتی که لینکی را منتشر می‌کند از نظر محتوا و کارکرد با وب‌سایت مقصد همخوانی دارد یا نه. با این روش، ساخت لینک‌های بی‌ربط و پرتعداد از وب‌سایت‌های مختلف به جهت افزایش رتبه بی‌اثر می‌شود. الگوریتم پنگوئن برای وب‌سایت‌هایی که از قوانینش تخطی کنند جریمه در نظر گرفته است. بنابراین وبمستران باید توجه ویژه‌ای به لینک‌های دریافتی وب‌سایت خود داشته باشند. استفاده از تبادل لینک‌های پرتعداد، ساخت لینک‌های مصنوعی، یا لینک کردن از مطالب بی‌ربط، صرفا جهت دریافت بازدید، مواردی هستند که الگوریتم پنگوئن با آن‌ها به شدت برخورد می‌کند و باعث افت رتبه وب‌سایت شما می‌شوند.

الگوریتم مرغ مگس خوار گوگل
الگوریتم مرغ مگس خوار گوگل

الگوریتم مرغ مگس‌خوار

الگوریتم مرغ مگس‌خوار برای بهبود تجربه کاربران و دقیق‌تر بودن نتایج جست‌وجوها، توسط گوگل طراحی شده است. این الگوریتم با فهمیدن مفهوم یک عبارت، نزدیک‌ترین نتایج به مفهوم مورد نظر را برای شما نمایش می‌دهد. الگوریتم مرغ مگس‌خوار دایره بزرگی از کلمات و هم‌معنی‌هایشان را در خود جای داده است؛ و به کمک مفاهیم وب معنایی تلاش می‌کند مرتبط‌ ترین نتایج به کاربر نمایش داده شود؛ و نه صرفا مطلبی که کلمات جست‌وجو در آن تکرار شده‌اند. به‌عنوان مثال فرض کنید نام یک کارگردان را در اینترنت سرچ می‌کنید. در سمت راست صفحه اطلاعات مرتبطی را می‌بینید که گاهی اوقات شما را تحریک می‌کند روی آن‌ها کلیک کنید. این اطلاعات مرتبط توسط الگوریتم مرغ مگس‌خوار شناسایی شده‌اند.

استفاده از الگوریتم مرغ مگس‌خوار

الگوریتم مرغ مگس‌خوار کمک می‌کند نتایج جست‌وجوها بسیار دقیق‌تر باشند. برای اینکه بتوانید در وب‌سایت خود از این الگوریتم بهره ببرید، باید مواردی را رعایت کنید؛ از جمله:

استفاده از کلمات کلیدی هم‌معنی

به جای اینکه یک کلمه کلیدی را به‌صورت مداوم در متن خود تکرار کنید سعی کنید از هم معنی‌ها و مترادف‌های آن کلمات نیز استفاده کنید. جست‌وجوی مفهومی گوگل این کلمات را تشخیص می‌دهد.

استفاده از کلمات کلیدی بلند

در هنگام نوشتن متن خود می‌توانید از برخی ترکیب‌های بلند استفاده کنید. با این روش مجموعه‌ای از کلمات مرتبط با موضوع را به کار برده‌اید که سبب می‌شود گوگل متن شما را مرتبط‌ تر تشخیص دهد. مثلا در زمان نوشتن مقاله‌ای در خصوص حافظ، به جای استفاده پیاپی از نام این شاعر، از کلماتی مثل شاعر پارسی‌گوی، غزل‌سرا، لسان‌الغیب و خواجه شیرازی استفاده کنید. با اینکار متن شما به جز داشتن کلمه کلیدی «حافظ» کلمات مرتبط زیادی نیز دارد که باعث می‌شوند از نظر گوگل یک متن مرتبط با موضوع باشد.

الگوریتم موبایل اول

از سال 2010 و با ورود تلفن‌های همراه هوشمند به بازار، دنیای دیجیتال تغییرات زیادی کرد. تا پیش از این استفاده از اینترنت موبایل خیلی رایج نبود و تقریبا تمام کاربران اینترنت از سیستم‌های رومیزی استفاده می‌کردند. انقلابی که گوشی‌های هوشمند ایجاد کردند باعث شد بیش از نیمی از کاربران اینترنت کسانی باشند که از طریق موبایل به شبکه جهانی متصل هستند.

هدف اصلی گوگل راضی نگه داشتن کاربران است و زمانی که کاربران موبایل زیاد شدند، ساخت تجربه‌ای مناسب برای این دسته از کاربران در دستور کار گوگل قرار گرفت. به همین منظور گوگل از وب‌سایت‌ها می‌خواهد صفحات خود را با توجه به کاربران موبایلی طراحی کنند. مشکل اصلی وب‌سایت‌های معمولی این است که طراحی صفحات با توجه به‌اندازه نمایشگر کامپیوتر طراحی شده‌اند. به همین دلیل کاربران موبایلی با صفحات نمایش کوچک، در مشاهده این وب‌سایت‌ها دچار مشکل می‌شوند. راه حل نهایی، استفاده از طراحی و قالب‌های کنش‌گرا یا Responsive است. این قالب‌ها اندازه و محل قرارگیری اجزای صفحه را با توجه به اندازه نمایشگر تغییر می‌دهند.

الگوریتم اول موبایل به این صورت کار می‌کند؛ زمانی که یک لیست از وب‌سایت‌های مرتبط با مطالب مناسب پیدا می‌کند، بررسی می‌کند که کدام وب‌سایت‌ها قابلیت نمایش روی تلفن همراه را نیز دارند و رتبه بهتری به آن‌ها می‌دهد. بعضا ممکن است نتایج سرچ گوگل در موبایل و کامپیوتر متفاوت باشند که این موضوع به دلیل الگوریتم موبایل اول است.اما در صورتی که وب‌سایت شما در موضوع خود پیشتاز باشد و رقبا نتوانند محتوایی باکیفیت وب‌سایت شما فراهم کنند، حتی اگر قابلیت نمایش روی موبایل را نیز نداشته باشد در رتبه اول گوگل قرار می‌گیرد.

الگوریتم رنک برین
الگوریتم رنک برین

الگوریتم رنک برین

این الگوریتم سئو اولین بار در سال 2015 به‌عنوان یک الگوریتم کمکی برای مرغ مگس‌خوار معرفی شد. الگوریتم رنک برین در حال حاضر مسئول پاسخگویی به 15 درصد از جست‌وجوهای گوگل است. این الگوریتم، که بر اساس هوش مصنوعی و با تکنیک یادگیری ماشین ساخته شده است، تلاش می‌کند تا الگوها و کلمات جدید را یاد بگیرد.  یادگیری ماشین این‌گونه تعریف می‌شود: «توانایی یک سیستم در کشف معانی جدید و ارتباط بین پدیده‌ها، بدون دخالت انسان و با استدلال خود سیستم.» درواقع الگوریتم رنک برین با در کنار هم قرار دادن کلمات سرچ‌شده، تلاش می‌کند تا مجموعه‌ای از روابط بین کلمات را یاد بگیرد. درواقع گوگل روز به روز باهوش‌تر می‌شود و با به پایان رساندن هر جست‌وجوی جدید ارتباط بین کلمات را درک می‌کند.

نحوه کار الگوریتم رنک برین

برای بررسی دقیق‌تر، عوامل تاثیرگذاری در یادگیری این الگوریتم را بیان می‌کنیم.
همان‌طور که گفته شد الگوریتم رنک برین با توجه به کلمات استفاده‌شده در جست‌وجو تلاش می‌کند معانی جدید را یاد بگیرد. به همین منظور الگوریتم رنک برین اطلاعاتی مثل موقعیت جغرافیایی کاربر، علایق شخصی و تاریخچه جست‌وجوها را در نظر می‌گیرد و تلاش می‌کند با توجه به ‌تمامی این موارد، بهترین نتیجه را ارائه دهد. الگوریتم رنک برین با بررسی تمامی این موارد به کمک مرغ مگس‌خوار می‌آید و نتایجی دقیق تولید می‌کند.
اما این پایان کار نیست؛ پس از نمایش نتایج جست‌وجو، الگوریتم رنک برین از کار نمی‌ایستد و در این مرحله شروع به آنالیز رفتار کاربر می‌کند. مثلا اینکه کدام نتایج مورد توجه کاربر قرار گرفته‌اند و زمانی که کاربر در صفحه هر یک از نتایج سپری می‌کند. این الگوریتم به کمک این عوامل می‌تواند مشخص کند که کاربر تا چه حدی از نتایج جست‌وجو راضی بوده است و مطالب ارائه شده در صفحه چقدر ارزش دارند.

استفاده از الگوریتم رنک برین

حال که وظیفه و نحوه کار این الگوریتم را می‌دانیم، باید تلاش کنیم از آن به نفع خود استفاده کنیم.

1- جذابیت صفحه: قبل از ورود کاربر الگوریتم رنک برین تلاش می‌کند تشخیص دهد که کاربر به کدام صفحات علاقه بیشتری نشان می‌دهد. بنابراین مسائلی مانند سبک بودن و سریع لود شدن صفحه، منظم بودن المان‌های صفحه و نمایش مطالب با اندازه مناسب، باعث می‌شوند این الگوریتم تمایل بیشتری به نمایش محتوای شما داشته باشد.
2- میزان رضایت کاربران: گوگل تجربه کاربران را نیز مدنظر قرار می‌دهد و مسائلی مانند مدت زمانی که در یک صفحه سپری کرده‌اند و تعداد کلیک‌های هر نتیجه را بررسی می-کند؛ و با این روش‌ها به‌صورت تقریبا دقیقی می‌تواند رضایت کاربر را از نتیجه جستجو اندازه‌گیری کند. بنابراین در سئو وب‌سایت زمانی که کاربر به صفحه ما وارد شد مسئولیت به پایان نمی‌رسد، بلکه کسب رضایت نیز او نیز اهمیت بالایی دارد. بهتر است در پایان مطالب یک نظرسنجی قرار دهید و از رضایت کاربران در خصوص محتوای خود اطمینان حاصل کنید.

الگوریتم برت

پس از الگوریتم رنک برین، گوگل الگوریتم برت را ارائه کرد. این الگوریتم مسئول یادگیری زبان محاوره و زبان انسان است. الگوریتم برت با روش‌های پردازش زبان انسان NPL (Natural Language Process) اقدام به شناسایی و فهم عبارات جست‌وجوشده می‌کند. برای مثال این الگوریتم توانایی درک حروف اضافه را دارد؛ چیزی که قبل از الگوریتم برت ممکن نبود. مثلا در صورت انجام جست‌وجوی «انتقال پول از حساب» و «انتقال پول به حساب» نتایج مختلفی را مشاهده می‌کنید. این دقت بالا حاصل کارکرد الگوریتم برت است، که موفق شده با درک معنی حروف اضافه «از» و «به» معنی کاملا متفاوت این دو جمله را متوجه شود. یا شاید مشاهده کرده باشید در صورت انجام یک جست‌وجوی سوالی انگلیسی، گوگل قسمتی که حاوی پاسخ پرسش شماست را در وب‌سایت هایلایت می‌کند.

استفاده از الگوریتم برت

به‌عنوان یک مسئول سئو باید بدانیم که اگر الگوریتم برت برای بهینه‌سازی نتایج جست‌وجوها ارائه شده‌ است، چگونه باید محتوای خود را تنظیم کنیم تا برای این الگوریتم جذاب‌تر باشد. همان‌طور که گفته شد، الگوریتم برت به بررسی زبان طبیعی انسان می‌پردازد و سایر مسائل مثل تکرار کلمه کلیدی یا نوع محتوا را در نظر نمی‌گیرد. تمرکز بر روی زبان انسان به این معنی است که به کمک الگوریتم برت دیگر جست‌وجو به کلیدواژه‌ها محدود نیست و جملات طولانی و سوالات کاربران نیز مورد توجه قرار می‌گیرد.
بنابراین توجه به جملات کلیدی و سوالات کاربران اهمیت خیلی زیادی پیدا کرده‌ است. پس توجه کنید متن خود را به‌گونه‌ای بنویسید که جملات و پرسش‌های کاربران در آن ذکر شده باشند. همچنین با توجه به روش کار این الگوریتم دیگر نوشتن محتواهای طولانی ارزش ندارند. بلکه الگوریتم برت می‌تواند مفهوم محتوای شما را متوجه شود و تلاش می‌کند متنی که کوتاه‌ترین و صریح‌ترین پاسخ را در خود دارد به‌عنوان نتیجه معرفی کند.

الگوریتم محتوای تازه یا Freshness

یکی از الگوریتم ‌های جالب گوگل الگوریتم محتوای تازه است. این الگوریتم برای سئوکاران و وبمستران ارزش بالایی دارد؛ چراکه به‌راحتی می‌تواند رتبه یک وب‌سایت را تغییر دهد. گوگل ارزش بالایی برای محتواهای جدید قائل است و به دست اول بودن یک خبر امتیاز می‌دهد. این امر نیز به دلیل تلاش این شرکت برای جذب رضایت کاربران است چراکه کسی نمی‌خواهد محتوای قدیمی ببیند. فرض کنید عبارت «بازی‌های مقدماتی جام جهانی» را جست‌وجو کرده‌اید؛ قطعا شما به دنبال بررسی بازی‌های پیش‌رو هستید؛ اما اگر در نتایج، صفحه‌ای را باز کنید که بازی‌های مقدماتی جام جهانی قبلی را نشان دهد، آیا این امر سبب رضایت شما می‌شود؟
الگوریتم محتوای تازه همواره به جدیدترین اخبار توجه می‌کند. اما باید در نظر داشت که تنها تاریخ انتشار یک مطلب نمی‌تواند معیار مناسب بررسی باشد. برای مثال در زمینه دستور پخت یک غذا، دیگر جدید بودن ملاک نیست بلکه کیفیت محتوا ارزش بالایی دارد.
گوگل توانایی شناسایی نوع وب‌سایت و محتوا را دارد و بر همین اساس می‌تواند تصمیم بگیرد که در کدام موارد تازه بودن محتوا یک امتیاز محسوب می‌شود. به ‌جز مسائل مرتبط با نوع موضوع، ترند شدن یک مطلب نیز از دیگر مواردی است که شاید باعث شود جدید بودن یک مطلب ارزش پیدا کند. برای مثال در روزهای اخیر اخبار مرتبط با حضور یک تمساح در دریاچه چیتگر خبرساز شده است. قطعا نتایج گوگل برای کلمه «چیتگر» نسبت به قبل از انتشار این خبر تغییر کرده است. اگر قبلا با جست‌وجوی کلمه «چیتگر» به نتایجی در خصوص مکان این پارک، امکانات پارک و رویدادهای ورزشی می‌رسیدید، در حال حاضر بیشتر نتایج گوگل در خصوص تمساح دریاچه است. گوگل با توجه به انفجار تعداد جست‌وجوهای مرتبط با این پارک و تکرار نامش در اخبار متوجه می‌شود که در حال حاضر اخبار جدید و مهمی در حال رخ دادن است و نیاز به اخبار جدید و تازه، به ضرورت تبدیل شده است.

الگوریتم گوگل دنس

الگوریتم گوگل دنس به‌ منظور دادن شانس به وب‌سایت‌هایی طراحی شده است که در ابتدا شانس قرار گرفتن در بین نتایج برتر را نداشته‌اند. درواقع این الگوریتم به‌ صورت دوره‌ای با قرار دادن برخی صفحات در بین صفحات برتر، شانس شکوفایی را به آن‌ها هدیه می‌کند. فاکتورهایی مثل همسانی با تلفن همراه، داشتن لینک مناسب، کلمات کلیدی و لینک‌ها، قبل از اینکه به دست کاربر برسند توسط گوگل اندازه‌گیری می‌شوند. اما ممکن است صفحاتی وجود داشته باشند که با محتوای مناسب و مورد تایید کاربر، شانس حضور در صفحه اول و در نتیجه دیدن شدن را نداشته باشند.

الگوریتم گوگل دنس با قرار دادن این صفحات به ‌صورت محدود در بین نتایج برتر شانس دیده شدن را در اختیارشان می‌گذارد و سپس فاکتورهایی مثل مدت حضور در صفحه، به اشتراک گذاشتن و تعداد را اندازه‌گیری می‌کند. پس از این مرحله گوگل نتایج بررسی‌های قبل از ورود کاربر و پس از ورود را در کنار هم قرار می‌دهد و جایگاه سایت را دوباره مشخص می‌کند. در صورتی که محتوا مورد توجه کاربران بوده باشد رتبه صفحه بهبود پیدا می‌کند.

بنابراین در صورتی که در حین بررسی میزان بازدیدهای وب‌سایت خود متوجه تغییرات ناگهانی شدید، خوشحال یا ناراحت نشوید؛ احتمالا الگوریتم گوگل دنس صفحه شما را به‌صورت آزمایشی به نتایج برتر گوگل اضافه کرده تا عملکرد آن را بسنجد. بعد از اینکه گوگل دنس محاسبات خود را نهایی کرد؛ رتبه و بازدید سایت شما به حالت اولیه برمی‌گردد، و به‌ صورت تدریجی افزایش یا کاهش می‌یابد. بنابراین عجولانه تصمیم‌گیری نکنید و دست به تغییر یا حذف محتواهای خود نزنید.

الگوریتم کبوتر
الگوریتم کبوتر

الگوریتم کبوتر گوگل

یکی دیگر از حیوانات دنیای الگوریتم‌های سئو گوگل الگوریتم کبوتر است. الگوریتم کبوتر مهم‌ترین الگوریتم جست‌وجوی محلی گوگل است. در سال‌های اخیر گوگل تلاش کرده است نتایج خود را تا حد امکان به‌ صورت محلی بهینه کند. با همه‌گیری تلفن‌های هوشمند و افزایش استفاده از اینترنت پرسرعت همراه، حالا بسیاری از مردم در مکان‌هایی غیر از خانه و پشت سیستم خود، از اینترنت استفاده می‌کنند. بنابراین جست‌وجوهای زیادی به ‌منظور پیدا کردن نزدیک‌ترین نتیجه جغرافیایی صورت می‌گیرد.
هدف اصلی الگوریتم کبوتر انجام جست‌وجو بر اساس موقعیت فیزیکی کاربران است. در حال حاضر در صورتی که کلمه «رستوران» را در گوگل جست‌وجو کنید، گوگل در باکسی نزدیک‌ترین رستوران‌ها را نسبت به موقعیت فعلی شما نشان می‌دهد. به همین صورت اگر در شهر دیگری همین جست‌وجو را انجام دهید، نتایج کاملا متفاوتی را مشاهده می‌کنید و دیگر تنها کلمات کلیدی نیستند که نتایج را مشخص می‌کنند. در واقع اکنون گوگل می‌تواند تشخیص دهد که چه جست‌وجوها و وب‌سایتی‌هایی، یک کسب و کار محلی هستند یا به نتایج محلی نیاز دارند، و کدام جست‌وجوها نتایجی مستقل از مکان نیاز دارند.

استفاده از الگوریتم کبوتر

تا اینجا متوجه شدیم که الگوریتم کبوتر چکار می‌کند. حال وقت آن است که از این الگوریتم استفاده کنیم و رتبه سایت خود را بهبود ببخشیم.
اولین و مهم‌ترین گام در زمینه سئو محلی و بهینه کردن وب‌سایت برای جست‌وجوهای محلی وارد کردن کسب‌وکار به نقشه گوگل است.
اضافه کردن سایت به دایرکتوری و لیست‌های محلی که کسب‌وکارها را دسته‌بندی می‌کنند نیز تاثیر زیادی در نتایج گوگل دارد و به این صورت گوگل با اطلاعاتی اضافی که از این دایرکتوری‌ها می‌گیرد کسب‌وکار شما را شناسایی می‌کند.
آدرس و مشخصات تماس خود را در صفحات وب‌سایت ذخیره کنید. این کار مثل تکرار کلمات کلیدی سبب می‌شود گوگل هرگز در شناسایی محل کسب‌وکار شما دچار اشتباه نشود.

الگوریتم جعبه شن Sandbox

گوگل هیچ‌وقت به‌صورت رسمی وجود داشتن یا نداشتن الگوریتم جعبه شن را تایید نکرده است. نام این الگوریتم به جعبه‌های پر از شن در پارک‌ها اشاره دارد که کودکان و خردسالان در آن‌ها بازی می‌کنند. این الگوریتم نیز وظیفه دارد وب‌سایت‌ها و دامنه‌های جدید را در مکانی جدا از سایرین قرار داده و رفتارشان را بررسی کند. زمانی که یک سایت به‌تازگی در اینترنت منتشر می‌شود، از همان روز اول توسط گوگل به‌عنوان یک وب‌سایت معتبر شناسایی نمی‌شود. درواقع گوگل به‌عنوان بزرگ‌ترین قاضی در خصوص وب‌سایت‌ها تلاش می‌کند تا کیفیت وب‌‎سایت‌ها را قبل از اینکه به صفحه اول راه یابند بسنجد.

تقریبا تمام سایت‌های جدید برای مدتی، بین یک تا چهار ماه، در جعبه شن گوگل قرار می‌گیرند و در این مدت گوگل رفتار کاربران در خصوص آن‌ها را زیر نظر می‌گیرد. در این مدت تعداد بازدیدهای سایت شما خیلی کم افزایش می‌یابند و به نظر می‌رسد که هیچ‌کدام از اقدامات شما جهت بهبود سئو سایت نتیجه‌بخش نیست؛ اما دلیل اصلی این اتفاق این است که وب‌سایت شما در جعبه شن قرار دارد و در حال حاضر در رقابت اصلی حضور ندارد. با بررسی و زیر نظر داشتن تعداد بازدیدهای وب‌سایت، می‌توان متوجه خروج از جعبه شن شد. زمانی که به یک‌باره تعداد بازدیدها افزایش می‌یابند و یا این افزایش سرعت می‌گیرد می‌توان گفت وب‌سایت شما از جعبه شن گوگل خارج شده است.

الگوریتم فرد گوگل

الگوریتم فرد همان به روز رسانی‌های جزئی الگوریتم‌های گوگل است که هر از گاهی رخ می‌دهد و در سئوی وب‌سایت‌ها تاثیر چشمگیری می گذارد. از جمله موارد که این الگوریتم هدف قرار داده است، عبارت است از:

  1. محتوای بی ارزش

  2. تجربه کاربری ضعیف

  3. تبلیغات

  4. لینک سازی‌های ضعیف

  5. سئوی کلاه سیاه

فلوریدا

اولین به‌روزرسانی الگوریتم فلوریدا در سال 2003 اتفاق افتاد و فلوریدا1 نام گرفت. این الگوریتم یکی از پایه‌ترین و مهم‌ترین الگوریتم‌های گوگل محسوب می‌شود. به‎ روزرسانی فلوریدا یک اتفاق بزرگ در گوگل بود و باعث افت رتبه بسیاری از سایت‌ها شد. الگوریتم فلوریدا برای مبارزه با وب‌سایت‌هایی ایجاد شد که محتوای کم کیفیت تولید می‌کردند. این نوع محتوای ضعیف و بی‌کیفیت باعث نارضایتی کاربران شده بود. در نتیجه گوگل با فلوریدا، رتبه این وب‌سایت‌ها را کاهش داد و حتی از نتایج جستجو حذف کرد! البته فلوریدا تنها به محتوا بسنده نکرد و سایت‌هایی که دارای بک ‌لینک غیرطبیعی بودند و لینک اسپم دریافت می‌کردند را نیز درامان نگذاشت و آن‌ها را هم جریمه کرد. اگر می‌خواهید توسط این الگوریتم پنالتی نشوید از دو کار به شدت دوری کنید: تولید محتوای کپی و بی‌کیفیت و ساخت بک ‌لینک‌های بیش از احد و غیر طبیعی !

دزدان دریایی

هما‌‌ن‌طور که می‌دانید دزدی در اینترنت یک مشکل جدی است و افراد زیادی هستند که از این فضا سوء استفاده کرده و محتوا و آثار دیگران را به نام خودشان می‌زنند! قبلا ما در اینترنت می‌توانستیم کتاب، فیلم و…. که پولی بودند را به صورت رایگان پیدا کنیم. این اتفاق باعث خشم و ناراحتی صاحبان این آثار شد. به همین دلیل گوگل در سال 2012 الگوریتم دزدان دریایی یا Pirate را معرفی کرد. کار اصلی این الگوریتم پیدا کردن محتواهایی است که حق کپی‌رایت را رعایت نکرده‌اند. الگوریتم دزدان دریایی با وب‌سایت‌هایی که محتوا (فیلم، تصویر، متن و ….) توسط خودشان نوشته نشده و از وب‌سایت‌های دیگر برداشته شده‌است، مبارزه کرده و آن‌ها را به طور کامل از نتایج حذف می‌کند. اگر کسی از شما کپی کرده‌باشد شما می‌توانید به گوگل اعلام کرده تا بعد از بررسی، آن وب‌سایت را جریمه کند.
اگر می‌خواهید از این الگوریتم درامان بمانید باید محتوای منحصر به فرد و باکیفیت برای وب‌سایت خود تولید کنید و یا اگر محتوایی که برای کس دیگری است را در وب‌سایت خود می‌گذارید حتما باید نام و منبع آن را ذکر کنید. با انجام این دو کار دیگر توسط الگوریتم Pirate جریمه و پنالتی نخواهید شد!

Payday Loan

Payday Loan در سال 2013 برای مبارزه با هرزنامه‌ها و سایت‌های اسپم ایجاد شد. این الگوریتم حدود 0.3 درصد کوئری‌های ایالت متحده را تحت تاثیر قرار دارد. در نتیجه سایت‌هایی که با اسپم و سئوی کلاه سیاه رتبه خوبی قرار گرفته‌بودند، جریمه شدند. مت کاتس، سرپرست تیم گوگل اظهار داشت که این الگوریتم در ترکیه‌، تاثیر زیادی داشته‌است! به‌روزرسانی Payday Loan2.0 بیشتر بر روی کلمات کلیدی با جستجوی زیاد بود که احتمال می‌رفت، هرزنامه‌های زیادی داشته‌باشند. اگر می‌خواهید توسط این الگوریتم جریمه نشوید، از روش‌های اسپم مانند محتوا و بک‌لینک‌های کم کیفیت و کلمات کلیدی غیرقانونی برای بهبود رتبه وب‌سایت خود استفاده نکنید.

موش کور

تا قبل از الگوریتم موش کور، کسب‌وکارهایی که در محدوده سرچ کاربر نبودند، رتبه خوبی نداشتند. برای مثال اگر کسب‌وکاری حومه شهر تهران قرار داشت و کاربر رستوران در تهران را جستجو می‌کرد، در نتایج نشان داده نمی‌شد و رتبه خوبی نداشت. اما با معرفی این الگوریتم کسب‌وکارهای غیر محلی توانستند در جایگاه خوبی قرار بگیرند. یکی از تغییراتی که از طریق این الگوریتم اتفاق افتاد، فیلترکردن مشاغل با آدرس مشابه بود. به این معنا که اگر سه شرکت در یک ساختمان فعالیت می‌کردند، حتی اگر آدرس وب‌سایتشان باهم متفاوت بود، یک یا دوتای آن‌ها در جستجوی محلی ظاهر می‌شدند. به همین دلیل نباید برای یک کسب‌وکار چندین آدرس یکسان وارد کرد. موش کور به آدرس شما در گوگل مپ اهمیت زیادی می‌دهد. بنابراین سعی کنید آدرس خود را درست وارد کنید تا در نتایج محلی دیده‌شوید. برای بهبود سئو محلی می‌توانید مقاله “سئو محلی” را مطالعه کنید.

مدیک یا طبی

الگوریتم‌ مدیک محتوای وب‌سایت‌ها را از لحاظ کیفیت و تخصصی بررسی می‌کند. درواقع تمرکز این الگوریتم بر روی معتبر بودن محتوا است. یعنی کسی که محتوا را نوشته باید در این زمینه تخصص داشته‌باشد و اطلاعات درست در اختیار کاربر قرار دهد. گوگل ادعا می‌کرد، این الگوریتم یک به‌روزرسانی جهانی است و بر روی همه وب‌سایت‌ها تاثیر گذاشته‌است، اما با توجه با آمار، این الگوریتم بیشتر بر روی وب‌سایت‌‌های پزشکی که حتما باید اطلاعات درست به کاربردهند، تاثیر گذاشت. برای جریمه ‌نشدن توسط الگوریتم مدیک سعی کنید، مقالات باکیفیت و معتبر تولید کنید. همچنین مقالات خود را چند وقت یکبار آپدیت کنید تا گوگل بداند شما اطلاعات به‌روز به کاربران نمایش می‌دهید. نظرات مثبت به بهبود سئوی شما کمک می‌کند. یکی از راه‌های دیگر برای درامان‌ماندن از مدیک، گرفتن بک‌ لینک از سایت‌های معتبر است. ایجاد اعتماد بین کاربران نکته کلیدی در الگوریتم مدیک است.

برای یادگیری بهتر عملکرد الگوریتم‌های گوگل و همچنین چگونگی انجام سئو سایت مطابق با الگوریتم‌های گوگل می‌توانید در دوره سئو شرکت کنید. برای شرکت در دوره سئو با ما تماس بگیرید.

تجربه‌های شما

آیا شما هم تجربه‌ای از تاثیر الگوریتم های گوگل بر آمار وب‌سایت خود داشته‌اید؟ لطفاً برای ما بنویسید که به‌صورت مستقیم با کدام الگوریتم گوگل مواجه شده‌اید و چه تاثیر منفی یا مثبتی را مشاهده کرده‌اید.

1 Comment

  • وجود این الگوریتم‌ها و آپدیت و ایجاد الگوریتم‌های جدید همه خبر از این میده که چقدر هوش مصنوعی گوگل دقیق شده و این کار رو برای رقابت وبسایت ها سخت تر میکنه. ممنون که اینقدر خوب توضیح دادین.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *