
۱۵ افسانه سئو که صحت و سقمشان توسط اسناد لو رفته گوگل فاش شده است
جالب ترین چیز در مورد اسناد فاش شده گوگل، مقایسه آن با بیانیه های عمومی گوگل است.
به عنوان مثال:
گوگل اعلام کرد که از امتیاز اسپم استفاده نمی کند-
اما این کاملا درست نیست…
… زیرا می توانیم ببینیم که یک امتیاز هرزنامه در اسناد فاش شده وجود دارد:
عجیب است، نه؟
و به همین جا ختم نمی شود!
زیرا من از داده های لو رفته گوگل برای رد کردن ۱۵ افسانه دیگر سئو در این مقاله استفاده کردهام.
افسانه شماره 1: گوگل از داده های کلیک کروم استفاده نمیکند
بیایید با یک شایعه بزرگ شروع کنیم…
گوگل اغلب استفاده از اطلاعات کلیک کاربران کروم را برای اطلاع رسانی رتبه بندی در SERP ها (صفحات نتایج جستجو) رد کرده است.
در واقع، گوگلیها در این مورد خیلی هم شلوغکاری کردهاند:
جان مولر میگوید:
“اگر CTR باعث رتبه بندی جستجو میشد، نتایج کاملاً طعمه کلیک میشد. من نمیبینم که چنین اتفاقی بیفتد.”
نه تنها این…
گری ایلیز به طور علنی هم از رند فیشکین انتقاد کرد و هم از مفهوم CTR که برای تأثیرگذاری بر رتبه بندی جستجو در Reddit AMA استفاده می شود.
“زمان ماندن، CTR، نظریه جدید فیشکین هر چه باشد، اینها عموماً احمقانه هستند. جستجو بسیار ساده تر از آن چیزی است که مردم فکر می کنند.”
– گری ایلیز
این نوع اظهارات چندین بار در طول سالها توسط سایر اعضای ارشد تیم Google تقویت شده است.
آنچه اسناد افشا شده در مورد دادههای کلیک میگوید
اما به نظر می رسد اسناد API فاش شده داستان متفاوتی را بیان می کند…
برخلاف ادعای گوگل، این افشاگری نشان میدهد که گوگل از دادههای کروم برای ارزیابی معیارهای قدرت و تعامل کاربر در سراسر سایت استفاده میکند.
ماژول API ” NavBoost ” (که 50 بار در API فاش شده ظاهر میشود) به عنوان “رتبه بندی مجدد بر اساس گزارش های کلیک رفتار کاربر” توصیف می شود.
این به تنهایی خیلی باورنکردنی است.
این سند نشان میدهد که تعاملات کاربر توسط مرورگر کروم در واقع ردیابی شده و برای ارزیابی وب سایت ها استفاده میشود.
در اینجا چند معیار و سیستم بیشتر وجود دارد که میتوانند از دادههای Chrome برای رتبهبندی استفاده کنند:
- NavBoost – (در بالا ذکر شد) دسته بندی پرس و جوها (کوئریها) بر اساس گزارشهای کلیک.
- badClicks، کلیکهای عادی، goodClicks – دادههای کلیکی که بهعنوان خوب، عادی یا بد طبقهبندی میشوند.
- MobileSignals له نشده – دادههای کلیک مخصوص موبایل.
- سیگنال ها – از سیگنال های رفتار کاربر (کلیک ها و غیره) برای تنظیم رتبه بندی استفاده میکند.
- SiteEngagementScores – امتیازدهی تعمیم یافته تعامل کاربر.
- SiteClicks – نرخ کلیک برای یک سایت جداگانه.
- TopicClicks – نرخ کلیک برای صفحات موضوعی خاص.
- ImageQuality ClickSignals – سیگنال های با کیفیت از کلیک های تصویر.
- chromeCounts – دادههای تعامل را از Chrome جمعآوری میکند.
- chromeInTotal – ردیابی بازدیدهای کروم در سطح سایت.
- instantChromeViews – ردیابی نماهای صفحات AMP از طریق Chrome.
این تصویر نمایانگر تعداد زیادی از دادههای کلیک و تعامل است که دریافت میشود، و در صورتی که آن را از دست بدهید، دادههای کلیک مخصوص موبایل را نیز دنبال میکنند.
حتی اگر گوگل اهمیت دادههای کلیک را کم اهمیت جلوه دهد، اما اطلاعات درز رفته نشان میدهد که آنها از آن (بسیار زیاد) در پشت صحنه برای تغییر رتبه بندی جستجو استفاده میکنند.
زمان استفاده از یک مرورگر جدید است؟
افسانه شماره 2: گوگل معیاری برای مرجع داخلی سایت ندارد
گوگل به طور مداوم وجود معیارهای نوع «مرجع دامنه» را رد کرده است.
آنها به طور عمومی گفتهاند که فقط صفحات منفرد بر اساس رتبه صفحه آنها ارزیابی میشوند.
در ویدیوی زیر، جان مولر گفت که آنها امتیاز برای اعتبار وب سایت ندارند:
نه تنها این…
او همچنین در توییتر ( در توییتی که اکنون حذف شده است ) گفت:
ما مفهومی به نام اعتبار صفحه Page Authority نداریم
خیلی قطعی به نظر می رسد، درست است؟
اما این گفتهها کاملا درست نیست…
آنچه اسناد در مورد مرجع داخلی سایت می گوید
نشت الگوریتم گوگل وجود معیاری به نام ” siteAuthority ” را تایید میکند.
به نظر می رسد معیار سایت Authority به این معنی است که گوگل وب سایت ها را بر اساس قدرت درک شده آنها رتبه بندی میکند.
حتی ممکن است نقش مهمی در الگوریتم رتبه بندی گوگل داشته باشند.
ما به طور قطع نمی دانیم که سایت Authority (در صورت وجود) چه تاثیری بر رتبه بندی دارد.
اما باز هم…
گوگل به وضوح در حال جمع آوری دادهها و حداقل اندازه گیری اعتبار هر وبسایت است.
برای روشن شدن مطلب– “siteAuthority” احتمالاً با “مرجع دامنه” DA Moz و “رده بندی دامنه” Ahrefs DR بسیار متفاوت است. هر دوی این معیارهای اقتدار به شدت مرتبط هستند.
همچنین لازم به ذکر است که امتیاز PageRank و همچنین رنک برای یک سایت وجود دارد:
اندازهگیری «siteAuthority» گوگل به احتمال زیاد ترکیبی از عوامل است – نه تنها بر اساس یک عامل، در اینجا چند نمونه از مؤلفههای ممکن آورده شده است:
- sitePr – PageRank یا اعتبار سایت.
- pagerank2 – نسخه دیگری از PageRank.
- homepagePagerankNs – نمایش صفحه اصلی بالاتر «PageRank» میتواند سیگنال معتبر دیگری باشد.
- IndexingDocjoiner DataVersion – برای قدرت و تخصص کلی سایت در مورد یک موضوع، داده ها را از بسیاری از صفحات به دست می آورد.
- مرجع بازخورد – از نمودار دانش و موجودیت ها برای درجه بندی اعتبار استفاده میکند.
افسانه شماره 3: سندباکس وجود ندارد
این افسانه سال ها پیش از طریق آزمایشهای فردی از بین رفت، بنابراین جای تعجب نداشت. اما دیدن این که اسناد نشان میدهد که سئوکاران در مسیر درستی بوده اند.
برای درک موضوع باید بگویم، سندباکس گوگل رتبهبندی وبسایتهای جدید را تا زمانی که ثابت کنند قابل اعتماد هستند متوقف میکند.
اکثر سئوکارها معتقدند که این کار حدود 3 تا 6 ماه طول میکشد.
گوگل همیشه وجود هر نوع “سندباکس” را رد کرده است.
آنچه در گذشته گفته اند این است:
پاسخ جان مولر را در اینجا به سؤالی در مورد اینکه گوگل یک جعبه سندباکس جدید گوگل در الگوریتم دارد را مشاهده کنید.
پاسخ او کاملا اعتماد شما را جلب میکند. نه؟
و حالا شاید بفهمیم چرا!
آنچه اسناد درباره Sandbox میگوید
این نشت معیاری به نام « HostAge » را فاش کرد.
نباید با گروگان گرفتن (Hostage) وب سایت شما اشتباه گرفته شود، به نظر می رسد این معیار نشان می دهد که گوگل سن دامنه (Host Age) را اندازه گیری می کند.
همچنین قویاً نشان می دهد که مکانیزم سندباکس در الگوریتم تعبیه شده است.
جان مولر همچنین در گذشته وقتی از او پرسیده شد که آیا سن دامنه برای رتبهبندی اهمیت دارد یا خیر، پاسخ منفی داده است.
و این ممکن است درست باشد.
اما چرا اگر گوگل از آن استفاده نمیکند، اطلاعات مربوط به سن دامنه را جمع آوری میکند؟
افسانه شماره 4: ارزیابی کنندگان کیفیت انسانی، وبسایت ها را علامت گذاری نمیکنند
ارزیابهای کیفیت انسانی توسط گوگل برای ارزیابی کیفیت و ارتباط نتایج جستجو استخدام میشوند.
آنها از دستورالعملهای سختگیرانه مندرج در دستورالعملهای ارزیابی کیفیت جستجو پیروی میکنند.
به این دستورالعمل ها به عنوان یک سند دقیق فکر کنید که به ارزیابی کنندگان کیفیت می گوید که چگونه وب سایت ها را به درستی برای جستجو ارزیابی کنند.
گوگل همیشه در مورد وجود رتبهدهندگان کیفیت جستجو و نقش آنها حرف اول را زده است.
اما…
در این Google Hangout ، جان مولر گفت که ارزیابیکنندگان کیفیت « بهطور خاص سایتهایی را پرچمگذاری نمیکنند» و « آن چیزی نیست که ما مستقیماً در آنجا از آن استفاده کنیم.»
آیا این ادعا حقیقت دارد؟
پاسخ کوتاه: اینطور به نظر نمیرسد.
آنچه که اسناد در مورد ارزیابی کنندگان کیفیت انسانی میگوید:
اصطلاح ” EWOK ” چندین بار در API ظاهر میشود و به پلتفرم ارزیابی کیفیت ارجاع میدهد.
نه تنها این، بلکه برخی از عناصر نشان میدهند که اطلاعات جمعآوریشده توسط ارزیابیکنندگان کیفیت ذخیره میشوند، مانند:
- isCorrectRange
- ratingSource
- raterCanUnderstandTopic
اما برخی از ویژگیهای بزرگ که در جریان این افشاگری کشف شد، وجود « اسناد طلایی » را نشان میدهد.
- Golden – این علامتی است که ارزیابیکنندگان کیفیت به صفحات وبسایت خاصی میدهند.
- isReadable – کیفیت محتوایی که به ارزیابهای انسانی نشان داده شده را علامت میدهد، و به طور بالقوه بر نحوه بررسی الگوریتمهای کیفیت محتوا برای رتبهبندی تأثیر میگذارد.
این به احتمال زیاد به این معنی است که آن محتوا می تواند به عنوان با کیفیت بالا برچسب گذاری شود و در نهایت در رتبه بندی ها مورد توجه قرار گیرد.
خیلی عجیب و غریب است، نه؟
نکته اصلی در اینجا این است:
اگر یک ارزیابی کننده کیفیت از وب سایت شما بازدید کند، شانس خوبی وجود دارد، نظر آنها میتواند بر رتبه بندی شما تأثیر بگذارد.
افسانه شماره 5: گوگل از تازگی محتوا حمایت نمیکند
من همیشه بر این باور بودم که تازگی نقش مهمی در رتبه بندی محتوا دارد.
تقریباً هر بار که پست های قدیمی را به روز می کنم، رتبه آنها افزایش مییابد.
گوگل بر اهمیت محتوای تازه تاکید کرده است، اما در مورد میزان اهمیت آن کمی مبهم بوده است.
آنها تا آنجا پیش رفتهاند که میگویند گوگل به محتوای تازه علاقهمند نیست.
این توییت حذف شده جان مولر را ببینید :
حقیقت این است که به نظر می رسد تازگی مهم است – شاید بیشتر از آن چیزی که اکثر ما تصور می کنیم. در واقع، من یک ماژول اختصاصی برای تازگی محتوا در دوره آموزشی چالش 28 روزه سئو ارایه کردم.
آنچه اسناد در مورد تازگی محتوا میگوید
اسناد فاش شده نشان می دهد که گوگل 127 ویژگی مرتبط با تازگی محتوا و سیگنال های مبتنی بر تاریخ را بررسی میکند:
- bylineDate – تاریخ در خط فرعی مقاله.
- syntacticDate – تاریخ های تعبیه شده در URL.
- semanticDate – تاریخ های درون محتوای صفحه.
در اینجا برخی از ویژگیهای پشتیبانگیری از عباراتی است که محتوا باید حفظ شود:
- adjustmentInfo, date – نشان می دهد آخرین بار چه زمانی صفحه به طور قابل توجهی به روز شده است (به عنوان مثال، بلوک های بزرگتر محتوا).
- timeAnnotations – احتمالاً برای ردیابی تازگی محتوا، یک عامل شناخته شده در رتبه بندی استفاده میشود.
این نشان میدهد که گوگل آخرین به روز رسانی محتوا را اندازه گیری می کند.
احتمالاً این بدان معناست که Google محتوای “تازه” را در نتایج جستجوی ارگانیک در اولویت قرار می دهد.
به نظر میرسد لایههایی در این الگوریتم وجود دارد که با محتوای حساس به زمان و اخبار خاص رفتار متفاوتی دارد:
- حساسیت زمانی – موضوعات مرتبط با زمان را در نظر می گیرد و زمان رتبه بندی صفحه را کاهش می دهد.
- NewspaperSpecific – مقالات خبری اخیر از منابع مورد اعتماد ممکن است در نتایج جستجو مورد توجه قرار گیرند.
بر اساس این اطلاعات، هیچ چیز واقعاً از نظر استراتژیک برای ما تغییر نمیکند. اما خوب است بدانید که گوگل به طور فعال تازگی محتوا را میسنجد.
توصیه من؟
محتوای خود را تازه نگه دارید و صفحات مهم را به طور منظم به روز کنید. برای انجام این کار، روند چالش 28 روزه سئو را دنبال کنید .
افسانه شماره 6: هوش مصنوعی بزرگ E-EAT و محتوای انسانی مثل هم رفتار میکنند
گوگل دوست دارد بگوید که محتوا، چه توسط هوش مصنوعی یا انسان تولید شده باشد، به طور مساوی ارزیابی و پاداش میگیرند.
به گفته گوگل، کلید نمایش EEAT عالی است:
- E تجربه Experience
- E تخصص Expertise
- A قدرت Authoritativeness
- T قابل اعتماد بودن Trustworthiness
گوگل همچنین در گذشته گفته بود که محتوای هوش مصنوعی تا زمانی که استانداردهای کیفیت را رعایت کند کاملاً خوب است.
در اینجا چیزی است که سند راهنمای جستجوی آنها میگوید:
این به معنای واقعی کلمه دروازهها را به روی هزاران وبسایت که الگوریتم را با محتوای تولید شده توسط هوش مصنوعی اسپم میکنند، باز میکند.
مقصود؟
گوگل با انتشار مروری بر هوش مصنوعی خود که به مردم میگفت سنگ بخورند، اشتباهات مشابهی را مرتکب شد:
اما چیزی که به نظر می رسد مردم فراموش می کنند این است که گوگل می تواند چرخش 180 درجه را در هر زمان انجام دهد.
و به نظر می رسد که آنها این کار را با محتوای هوش مصنوعی انجام داده اند.
فقط به کسی نگفتند!
به پیامدهای بهروزرسانی هسته مارس 2024 نگاه کنید – وبسایتهایی که از محتوای هوش مصنوعی استفاده میکردند نابود شدند.
آنچه اسناد فاش شده در مورد محتوای هوش مصنوعی می گوید
عبارت ” طلایی ” به عنوان یک پرچم در نشت API ظاهر میشود که نشان دهنده یک سند “طلایی استاندارد” است.
به چه معناست؟
یادداشتهای ویژگی نشان میدهند که این علامت، وزن بیشتری به محتوای نوشته شده توسط انسان نسبت به محتوای نوشته شده با هوش مصنوعی میدهد.
همچنین میتواند در مورد رتبه بندی رفتار ترجیحی داشته باشد.
تا چه حد، ما نمی دانیم. و اینکه گوگل چگونه این تفاوت را اندازه گیری میکند، باز هم نمیدانیم.
آنچه ما می دانیم این است که گوگل ادعاهای خود را درباره هوش مصنوعی زیر پا گذاشته است .
افسانه شماره 7: گوگل وبسایت ها را در لیست سفید قرار نمیدهد
گوگل سال ها اصرار داشت که به صورت دستی در رتبه بندی ها دخالت نمیکند.
الگوریتم یک زمین بازی یکنواخت ایجاد میکند. بهترین محتوا رتبه بندی میشود.
به همین دلیل است که مردم به نتایج جستجوی گوگل بسیار اعتماد دارند.
این چیزی است که جان مولر در گذشته گفته است :
اما افشاگری ها داستان دیگری را بیان میکنند…
آنچه اسناد در مورد لیست های سفید میگوید
این نشان میدهد که گوگل لیست سفید را برای انواع محتوای خاص نگه میدارد.
بهعنوان مثال، به نظر میرسد برخی از سایتهای مورد اعتماد در طول انتخابات یا اطلاعات مربوط به کووید با رفتار خاصی مواجه شدهاند.
در اسناد API لو رفته ، دو اصطلاح خاص وجود دارد:
- isElectionAuthority – می تواند رتبه بندی جستجوهای مربوط به انتخابات را افزایش دهد.
- isCovidLocalAuthority – این ممکن است بر رتبه بندی پرسش های مربوط به بیماری همه گیر تأثیر بگذارد.
به نظر می رسد اینها نشان می دهد که لیست سفید برای انتخابات و اخبار مرتبط با کووید وجود داشته است. این امکان وجود دارد که این سایتها در هنگام پوشش دادن این موضوعات، قابلیت دیده شدن و رتبههای بالاتری داشته باشند.
همچنین ویژگیهایی وجود دارد که نشان میدهد میتوان چند برابر رتبهبندی را برای سایتهایی که بررسی شدهاند اعمال کرد.
- isEditorial – بررسی می کند که آیا محتوا به صورت دستی بازبینی یا مدیریت شده است.
- مرجع بازخورد – اطلاعات منابع معتبر مانند نمودار دانش مقامات نهاد شناخته شده را بررسی می کند.
حتی اگر گوگل ادعا می کند که بی طرف است ، اما درز اطلاعات نشان می دهد که این قدرت را دارد که هر سایتی را که می خواهد در لیست سفید قرار دهد.
به احتمال زیاد آنها قبلا این کارها را زیاد انجام دادهاند.
افسانه شماره 8: بک لینک ها مهم نیستند
بک لینک ها مدتهاست که به عنوان یک فاکتور رتبه بندی برتر در نظر گرفته میشوند.
اما اخیراً گوگل به طور مداوم اهمیت آنها را ناچیز جلوه داده است.
در اینجا چند جمله برای موشکافی وجود دارد:
سپس دو سال بعد…
جان مولر در یک پرسش و پاسخ زنده در کنفرانس brightonSEO موارد زیر را بیان کرد:
“اما حدس من این است که با گذشت زمان، [لینکها] امروز دیگر مثل قبل عامل مهمی نخواهند بود. فکر میکنم در حال حاضر، این چیزی است که کمی تغییر کرده است.” – جان مولر
آنچه اسناد در مورد بک لینک میگوید
پیوندها مهم هستند و اینجا هستند تا بمانند.
این امر به ویژه برای بک لینک های با کیفیت بالا و متنوع از سایتهای معتبر صادق است. این همچنین با ارتباط عناصر اصلی رتبه بندی مانند رتبه صفحه مطابقت دارد.
اسناد فاش شده بیش از 136 ویژگی متمرکز بر پیوندهای ورودی را ذکر می کنند که برخی از ویژگی های کلیدی عبارتند از:
- linkWeight – سیستم امتیازدهی قدرت لینک در رتبه بندی را نشان میدهد.
- PageRank – امتیازی با در نظر گرفتن عوامل مختلف که لینک ها بخش مهمی از آن هستند.
- penguinPenalty – واضح است که جریمه پنگوئن همچنان متن لنگر لینک را درجهبندی میکند.
در اینجا چند قطعه دیگر وجود دارد که احتمالاً اهمیت پیوندهای ورودی و کیفیت آنها را برجسته میکند:
- linkData – پیوندهای درون محتوای بدنه که با متن مرتبط احاطه شده اند یک سیگنال واضح هستند.
- contentlink – شناسایی پیوندهای درون محتوای خارجی یا داخلی ممکن است یک عامل کلیدی باشد.
- لنگر، صفحه اصلی – چگونه گوگل ارتباط و اعتبار پیوندهایی را که به یک وب سایت اشاره می کنند، بررسی میکند.
- NumBackwardLinksInWoS – شمارش تعداد نقل قول ها (بک لینک ها).
حدس من این است که بک لینک ها همچنان نقش مهمی در رتبه بندی جستجو خواهند داشت. دیگر چگونه گوگل کیفیت را رمزگشایی کند؟
افسانه شماره 9: نسبت متن لنگر به معنای رتبه بندی خوب نیست
کم کم داریم به بحثهای فنی تر میرسیم.
جان مولر در این توییت حذف شده ادعا کرد که نسبت متن لنگر، تعداد کلمات و تعداد لینک ها شاخص های کیفیت برای رتبه بندی جستجو نیستند.
اما این دقیقاً درست نیست.
آنچه اسناد درباره نسبت متن لنگر میگوید
به نظر می رسد اطلاعات نشان می دهد که تنوع در بک لینک ها کاملاً حیاتی است.
تنها تعداد زیاد بک لینک ها مهم نیست، بلکه تنوع و کیفیت آن است.
چیزی که مدتی است به آن خدمات لینک بیلدینگ با کیفیت گفته میشود.
بک لینک های متنوع از چندین دامنه به گوگل نشان می دهد که محتوا به طور گسترده ای قابل اعتماد و ارجاع است.
این همان چیزی است که یک پروفایل بک لینک با کیفیت به نظر می رسد.
اگر اعداد کیفیت را نشان نمیدهند، چرا 44 ویژگی وجود دارد که بهطور خاص معیارهای مربوط به تعداد لنگرها را اندازهگیری میکنند، مانند:
- numIncomingAnchors – تعداد پیوندهای ورودی (انکر).
- AnchorSpamInfo – این ماژول بر تجزیه و تحلیل نمایه متن لنگر یک سند برای یافتن الگوهای هرزنامه تمرکز دارد.
- AnchorStatistics – این معیارها جزئیات دقیق تری را در مورد توزیع متن لنگر ارائه می دهند.
این نشت شامل یک ماژول کامل است که شامل کاهش هرزنامههای متنی لنگر است – و حداقل میتوان گفت گسترده است.
همچنین نشان می دهد که متن لنگر نقش مهمی در کیفیت بک لینک ایفا می کند، با بیش از 76 ویژگی مبتنی بر انکر.
توصیه من؟
شما باید متن لنگر مناسب را برای پیوندهای خود انتخاب کنید (یک آموزش در این باره منتشر خواهم کرد)
افسانه شماره 10: پیوندهای بد را رد نکنید، ما آن را مدیریت میکنیم
من همیشه وقتی گوگل می گوید: “نگران نباش، ما حواسمان بهش هست” عصبی میشوم.
آنها سابقه خوبی در پیگیری ندارند. من ترجیح می دهم مسائل را به دست خودم انجام دهم.
این چیزی است که گوگل در گذشته گفته است:
این همه چیز نیست…
جان مولر همچنین از اظهارات گذشته خود در یک نظر “اخیراً حذف شده” در Reddit پشتیبانی کرد :
آنچه اسناد در مورد لینکهای بد میگوید
برخلاف موضع عمومی گوگل، این افشاگری نشان می دهد که لینک های بد اهمیت دارند.
چندین تنزل برای لینکهای هرزنامه وجود دارد، همراه با سیستمهای امتیازدهی که میتوانند سایتهایی را با سیگنالهای لینک خروجی اسپم و لنگر متن جریمه کنند.
به عنوان مثال، ویژگی های ” fraseAnchorSpamPenalty ” و ” spamrank ” در اسناد API ظاهر می شوند.
به نظر می رسد که این موارد جریمه هایی را برای سایت های مرتبط با لینک های هرزنامه و متن لنگر نشان می دهد.
باید امیدوار باشید که برای شما اتفاق نیفتند.
سایر مواردی که شامل جریمه میشود عبارتند از:
- anchorCount – شمارش لنگرهای داخلی و خارجی برای الگوهای هرزنامه.
- پنگوئن پنالتی – جزیمه های اعمال شده توسط الگوریتم پنگوئن .
- PenguinEarly AnchorProtected – احتمالاً محافظت اولیه برای حملات لینک مبتنی بر لنگر.
- spamProbability – تجزیه و تحلیل نمایه متن لنگر یک صفحه برای یافتن الگوهای هرزنامه.
در حالی که گوگل به شما میگوید نگران لینکهای اسپم نباشید، اسناد فاششده نشان میدهد که نادیده گرفتن آنها میتواند به رتبهبندی سایت شما آسیب برساند.
من نمی خواهم به استراتژی “امید” گوگل که از آن برای جلب اعتماد ما استفاده میکند تکیه کنم.
افسانه شماره 11: دریافت لینک از صفحات معتبر قدیمی بهتر است
در اینجا افسانه ای وجود دارد که ممکن است تعجب آور باشد…
گوگل اغلب بر اهمیت کیفیت و ارتباط لینک ها تاکید کرده است.
آنها همچنین اشاره کردهاند که لینک ها منقضی نمی شوند – در بدترین حالت ممکن است در طول زمان ارزش آنها کاهش یابد.
در ساعت کاری دفتر مرکزی وب مستر ، از جان مولر پرسیده شد که “آیا پیوندها پس از مدتی منقضی می شوند؟”
جان مولر بلافاصله پاسخ داد: “نه، آنها منقضی نمی شوند…”
به نظر می رسد بسیار ساده است. اما ممکن است تمام ماجرا نباشد.
آنچه اسناد در مورد لینک های قدیمی می گوید
نشتها نشان میدهد که لینکهای صفحات جدیدتر نسبت به صفحات قدیمیتر و معتبر، پررنگتر هستند.
اسناد API لو رفته دو عبارت کلیدی را در اینجا نشان می دهد:
- Freshdocs : یک ضریب ارزش پیوند است که ممکن است نشان دهد که لینکهای صفحات وب جدیدتر از لینکهای درج شده در محتوای قدیمی تر ارزشمندتر هستند.
- CreationDate : تاریخ ایجاد یک لینک
نکته کلیدی در اینجا این است که وقتی یک صفحه برای گوگل اهمیت کمتری پیدا می کند، به نظر می رسد پیوندها منقضی شوند یا با گذشت زمان قدرت خود را از دست بدهند.
به نظر می رسد پیوندهای جدید تأثیر مهم تری دارند.
افسانه شماره 12: پیوند دادن به سایت های معتبر به رتبه بندی شما کمکی نمیکند
گوگل همیشه اهمیت ارجاعات و لینک دادن را برجسته کرده است.
و این خوب است!
اما آنها هرگز یک بار یک سیستم داخلی برای ردیابی دقت و سطح اطمینان منابعی که به محتوای خود اضافه میکنید نشان نداده اند.
منظورم این است که چرا آنها این کار را انجام میدهند؟
آنها فقط این ایده را کم اهمیت جلوه دادهاند که پیوند دادن به منابع باعث افزایش سئو می شود:
نه تنها این…
جان مولر با این توییت دو برابر کرد:
آنچه که اسناد در مورد پیوند دادن به سایت های معتبر می گوید
اسناد فاش شده نشان می دهد که در واقع یک سیستم امتیازدهی داخلی برای استنادها و مراجع وجود دارد، به ویژه در قسمت های YMYL (پول شما، زندگی شما).
آنها معیارهایی مانند ” outlinkScore ” و ” outlinkDomainRelationship ” را ذکر می کنند که به نظر می رسد کیفیت و ارتباط لینک های خروجی را ارزیابی می کند.
در اینجا آنچه ماژول ها و ویژگی ها پیشنهاد می کنند آورده شده است:
- outlinkScore – ارزش پیوندهای خروجی را نشان می دهد.
- outlinkDomainRelationship – رابطه بین سایت لینک دهنده و سایت لینک شده را ارزیابی می کند.
- indexingConverter LinkRelOutlinks – پیوندهای خروجی را در یک صفحه وب برای کیفیت و ارتباط با محتوای صفحه تجزیه و تحلیل می کند.
- webrefOutlinkInfos – پیوندهای خروجی یک صفحه می تواند اعتبار و ارتباط آن را نشان دهد، به خصوص اگر به سایت های با کیفیت بالا اشاره کند.
این واقعا به چه معناست؟
به نظر می رسد این سندها نشان می دهند که پیوند دادن به سایت های خارجی با کیفیت بالا و مرتبط می تواند اعتبار و اعتماد صفحه شما را افزایش دهد.
این دقیقاً برخلاف آنچه گوگل در گذشته گفته است.
اگرچه ممکن است این یک شوک بزرگ نباشد، اما باید یک زنگ بیدارباش باشد.
گوگل لینک های داخل و خارج سایت شما را ردیابی میکند. اطمینان حاصل کنید که وب سایت شما فقط به وب سایت های معتبری پیوند می خورد که با اطمینان به یک دوست توصیه میکنید.
افسانه شماره 13: گوگل از سیستم امتیازدهی لینک های سمی استفاده نمیکند
گوگل همیشه گفته است که از امتیاز اسپم خاصی برای لینک ها استفاده نمی کند.
هنگامی که یک سئوکار در مورد “امتیاز لینک سمی” Semrush برای وب سایت شرکت خود سوال کرد.
جان مولر پاسخ داد:
بیشتر سئوکاران میدانند که محتوا و لینکهای با کیفیت دست به دست هم میدهند.
اسناد فاش شده این موضوع را تایید میکند.
آنچه اسناد درباره سیستم امتیازدهی می گوید
به نظر میرسد گوگل چندین سیستم امتیازدهی برای ارزیابی لینک ها دارد.
این نشاندهنده رویکرد تهاجمیتر برای ارزیابی پیوند نسبت به آن چیزی است که آنها به صورت عمومی اعلام کردهاند.
در واقع، کل نمودار لینک گوگل بسیار پیچیده است. به خصوص وقتی صحبت از امتیازدهی لینک سمی باشد.
اسناد API فاش شده مجموعه کاملی از معیارها را برای هرزنامه پیوند نشان می دهد:
- spamScore – سطح هرزنامه لینک ها را ارزیابی می کند و 20 بار در اسناد API ذکر شده است.
- Spamrank – اندازه گیری بین 0 و 65535، با عدد بالاتر که احتمال وجود پیوندهایی به سایت های اسپم یا با کیفیت پایین را نشان می دهد.
با انواع برچسب های مختلف برای جریمه های پیوند:
- IndexingDocjoiner AnchorStatistics – این ماژول دارای تعدادی ویژگی است که خلاف آن را می گوید، مانند badbacklinksPenalized و penguinPenalty.
- phraseAnchor SpamDemoted – هدف این ماژول شناسایی و جریمه کردن چنین شیوههای انکر متن هرزنامه است.
- spamPenalty – بر اساس این تحلیل، جریمه اسپم ممکن است برای محاسبه لینک نهایی اعمال شود.
من از سطحی که گوگل برای اندازه گیری کیفیت پیوندها می گذرد بسیار تحت تأثیر قرار گرفتم. تا چه حد بر بک لینک ها تأثیر میگذارد، ما نمی دانیم.
اما این به وضوح با آنچه آنها در گذشته در مورد نداشتن امتیاز اسپم گفته اند در تضاد است.
افسانه شماره 14: ما از امتیاز نویسندگی استفاده نمیکنیم
در اینجا یک افسانه دیگر است که مدتی است شایع شده!
گوگل ادعا کرده است که الگوریتمهای رتبهبندی آنها از «امتیاز نویسندگی» خاصی برای رتبهبندی محتوا استفاده نمیکنند .
در سال 2013، جان مولر در این وب مستر مرکزی گفت :
“ما از Authorship برای رتبه بندی استفاده نمی کنیم.”
اما این موضع با معرفی طرحواره Schema تغییر کرد…
در این Hangout 2021 ، جان مولر توصیه کرد که شناخت نویسنده برای Schema مهم است.
کدام یک درست است؟
آنچه اسناد در مورد نویسنده می گوید
اسناد فاش شده نشان میدهد که گوگل اطلاعات نویسنده را ردیابی میکند . گوگل نویسندگان را به عنوان موجودیت واقعی ذخیره میکند و نویسندگان یک ویژگی غیرقالب انکار در سیستم های گوگل به شمار میروند.
- OceanVolumeImprint – شهرت و اعتبار نویسنده در زمینه خود میتواند به طور قابل توجهی بر رتبه بندی جستجو تأثیر بگذارد.
- OceanDataDocinfo WoodwingItemMetadata – فراداده در مورد نویسنده و دسته مقاله میتواند برای ارزیابی تخصص، اعتبار و ارتباط موضوعی استفاده شود.
- isAuthor، isPublisher – نقش نهاد در سند (نویسنده، ناشر) را نشان میدهد که به طور بالقوه بر ارزیابی اعتبار تأثیر می گذارد.
- document AuthorPresence – تجزیه و تحلیل اطلاعات در سطح سند مانند اعتبار نویسندگی را انجام میدهد
این بدان معناست که نویسندگی یک مؤلفه کاملاً تعریف شده و عمداً یکپارچه در سیستم های Google است.
همچنین نشان میدهد که الگوریتمهای گوگل بهطور خاص اطلاعات مربوط به نویسندگان را به عنوان عاملی در روند رتبهبندی آنها شناسایی کرده و از آنها استفاده میکنند.
این توضیح می دهد که چگونه گوگل “تخصص” را در EEAT ردیابی میکند.
اگر این درست باشد، نویسنده محتوای شما ممکن است بر نحوه ارزیابی محتوا از نظر کیفیت و ارتباط تأثیر بگذارد.
افسانه شماره 15: با دامنه ها و زیر دامنه ها یکسان رفتار میشود
گوگل مدتهاست که گفته است که زیر دامنهها و دامنهها در رتبهبندیشان به یک اندازه در نظر گرفته میشوند.
در سال 2017، جان مولر در پاسخ به سوالی مبنی بر اینکه آیا ساب دامین ها یا زیر پوشه ها برای سئو بهتر هستند، موارد زیر را بیان کرد:
“جستجوی وب گوگل با استفاده از زیر دامنه ها یا زیرمجموعه ها خوب است.[…] ما باید یاد بگیریم که چگونه آنها را به طور جداگانه بخزیم، اما در بیشتر موارد، این فقط یک امر رسمی برای چند روز اول است. بنابراین، به طور خلاصه، از آنچه برای راه اندازی شما بهتر است استفاده کنید.” – جان مولر
این عبارات نشان می دهد که گوگل زیر دامنه ها را مشابه دامنه های اصلی آنها در مورد سئو و خزیدن مشاهده میکند.
به گفته گوگل، تفاوت قابل توجهی در نحوه برخورد با آنها برای اهداف رتبه بندی وجود ندارد.
این یکی دیگر از بیانیه کلاسیک گوگل است که “نگران نباشید، ما آن را برای شما انجام خواهیم داد” .
این مانند پیوندهای سمی در افسانه شماره 10 است.
اما به نظر می رسد اسناد فاش شده نشان می دهد که در واقع اینطور نیست.
آنچه اسناد در مورد دامنه ها و زیر دامنه ها می گوید
در اینجا دو چیز کلیدی وجود دارد:
- ارزیابی جداگانه: گوگل زیر دامنه ها را جدا از دامنه اصلی ارزیابی می کند.
- تأثیر رتبهبندی: این درمان جداگانه میتواند به این معنا باشد که زیر دامنهها آنقدر که فکر میکردیم از اعتبار دامنه اصلی بهره نمیبرند.
نکته دوم به طور بالقوه یک هشدار بزرگ است…
این میتواند به این معنی باشد که شما باید قدرت (Authority) زیر دامنه و دامنه اصلی خود را جداگانه ایجاد کنید.
این به طور مستقیم با آنچه گوگل در گذشته گفته است در تضاد است و چیزی است که باید در آینده مورد توجه قرار گیرد.
جمعبندی
نشت اسناد جستجوی گوگل به ما بینشی منحصربفرد از درون عملکرد سیستم های گوگل داده است .
این نشت یک سیستم پیچیده با بیش از 14000 ویژگی رتبه بندی را نشان می دهد که بررسی آن واجد اطلاعاتی باورنکردنی است.
به خصوص زمانی که آن را با بیانیه های عمومی گوگل مقایسه کنید!
از اظهارات به ظاهر نادرست گرفته تا چرخش های 180 درجهای، گوگل در طول سال ها مانند یک توپ پینگ پنگ به این سو و آن سو رفته است.
با این حال، یک چیز واضح است:
شما باید آنچه را که گوگل میگوید با مقدار زیادی نمک بپذیرید!
در واقعیت، همیشه بهترین کار این است که خودتان تست کنید یا حداقل فرآیندهای آزموده شده سایر سئوکاران در سراسر جهان را دنبال کنید.