वेबसाइट के आकार के अनुसार 5 सबसे आम Google अनुक्रमण मुद्दे

 आश्चर्य है कि आप ट्रैफ़िक क्यों खो रहे हैं? यहां 5 सबसे आम समस्याएं हैं जो Google को साइट आकार के आधार पर विभाजित करके आपके वेबपेज को अनुक्रमित करने से रोकती हैं।

Google इस तथ्य के बारे में खुला है कि वह उन सभी पृष्ठों को अनुक्रमित नहीं करता है जो उसे मिल सकते हैं। Google Search Console का उपयोग करके, आप अपनी वेबसाइट पर उन पृष्ठों को देख सकते हैं जो अनुक्रमित नहीं हैं।

Google खोज कंसोल आपको उस विशिष्ट समस्या के बारे में उपयोगी जानकारी भी प्रदान करता है जो किसी पृष्ठ को अनुक्रमित होने से रोकता है।

इन समस्याओं में सर्वर त्रुटियां, 404 और संकेत शामिल हैं कि पृष्ठ में पतली या डुप्लिकेट सामग्री हो सकती है।

लेकिन हमें कभी भी ऐसा कोई डेटा देखने को नहीं मिलता है जो यह दर्शाता हो कि पूरे वेब पर कौन सी समस्याएं सबसे आम हैं।

तो... मैंने आंकड़े इकट्ठा करने और आंकड़ों को खुद संकलित करने का फैसला किया!

इस लेख में, हम सबसे लोकप्रिय अनुक्रमण समस्याओं का पता लगाएंगे जो आपके पृष्ठों को Google खोज में प्रदर्शित होने से रोक रही हैं।

अनुक्रमण 101


अनुक्रमण एक पुस्तकालय के निर्माण की तरह है, पुस्तकों के बजाय, Google वेबसाइटों के साथ काम करता है।

यदि आप चाहते हैं कि आपके पृष्ठ खोज में दिखाई दें, तो उन्हें ठीक से अनुक्रमित करना होगा। आम आदमी के शब्दों में, Google को उन्हें ढूंढ़ना होगा और उन्हें सहेजना होगा।
 

फिर, Google यह तय करने के लिए उनकी सामग्री का विश्लेषण कर सकता है कि वे किन प्रश्नों के लिए प्रासंगिक हो सकते हैं।

Google से ऑर्गेनिक ट्रैफ़िक प्राप्त करने के लिए अनुक्रमित होना एक पूर्वापेक्षा है। और जैसे-जैसे आपकी वेबसाइट के अधिक पृष्ठ अनुक्रमित होते हैं, आपके खोज परिणामों में प्रदर्शित होने की संभावना अधिक होती है।

इसलिए आपके लिए यह जानना वास्तव में महत्वपूर्ण है कि क्या Google आपकी सामग्री को अनुक्रमित कर सकता है।

इंडेक्सिंग मुद्दों की पहचान करने के लिए मैंने यहां क्या किया है


मेरे दिन-प्रतिदिन के कार्यों में तकनीकी एसईओ दृष्टिकोण से वेबसाइटों को Google में अधिक दृश्यमान बनाने के लिए अनुकूलित करना शामिल है और इसके परिणामस्वरूप, Google खोज कंसोल में कई दर्जनों साइटों तक मेरी पहुंच है।

उम्मीद है कि लोकप्रिय अनुक्रमण मुद्दों को बनाने के लिए मैंने इसे इस्तेमाल करने का फैसला किया ... ठीक है, कम लोकप्रिय।

पारदर्शिता के लिए, मैंने उस कार्यप्रणाली को तोड़ा, जिससे मुझे कुछ दिलचस्प निष्कर्ष मिले। 

क्रियाविधि


मैंने दो स्रोतों से डेटा को मिलाकर, पृष्ठों का एक नमूना बनाकर शुरू किया:

     मैंने अपने ग्राहकों के डेटा का उपयोग किया जो मेरे लिए आसानी से उपलब्ध थे।
     मैंने अन्य एसईओ पेशेवरों से एक ट्विटर पोल प्रकाशित करके और सीधे कुछ एसईओ तक पहुंचकर, मेरे साथ अज्ञात डेटा साझा करने के लिए कहा।

दोनों सूचना के उपयोगी स्रोत साबित हुए।

गैर-अनुक्रमणीय पृष्ठों को छोड़कर


कुछ पृष्ठों को अनुक्रमण से बाहर रखना आपके हित में है। इनमें पुराने URL, ऐसे लेख जो अब प्रासंगिक नहीं हैं, ईकॉमर्स में फ़िल्टर पैरामीटर, और बहुत कुछ शामिल हैं।

वेबमास्टर यह सुनिश्चित कर सकते हैं कि Google उन्हें कई तरीकों से अनदेखा करता है, जिसमें robots.txt फ़ाइल और noindex टैग शामिल हैं।

ऐसे पृष्ठों को ध्यान में रखना मेरे निष्कर्षों की गुणवत्ता को नकारात्मक रूप से प्रभावित करेगा, इसलिए मैंने नमूने से नीचे दिए गए किसी भी मानदंड को पूरा करने वाले पृष्ठों को हटा दिया:
  • robots.txt द्वारा अवरोधित।
  •      नोइंडेक्स के रूप में चिह्नित।
  •      पुनर्निर्देशित।
  •      एक HTTP 404 स्थिति कोड लौटाना।

गैर-मूल्यवान पृष्ठों को छोड़कर


अपने नमूने की गुणवत्ता को और बेहतर बनाने के लिए, मैंने केवल उन्हीं पृष्ठों पर विचार किया जो साइटमैप में शामिल हैं।

मेरे अनुभव के आधार पर, साइटमैप किसी दिए गए वेबसाइट के मूल्यवान URL का सबसे स्पष्ट प्रतिनिधित्व है।

बेशक, ऐसी कई वेबसाइटें हैं जिनके साइटमैप में जंक है। कुछ अपने साइटमैप और robots.txt फ़ाइलों में समान URL भी शामिल करते हैं।

लेकिन मैंने पिछले चरण में इसका ध्यान रखा था। 

 

डेटा वर्गीकृत करना


मैंने पाया कि लोकप्रिय अनुक्रमण मुद्दे वेबसाइट के आकार के आधार पर भिन्न होते हैं।

यहां बताया गया है कि मैं डेटा को कैसे विभाजित करता हूं:

     छोटी वेबसाइटें (10k पेज तक)।
     मध्यम वेबसाइटें (10k से 100k पृष्ठों तक)।
     बड़ी वेबसाइटें (एक मिलियन पेज तक)।
     विशाल वेबसाइटें (1 मिलियन से अधिक पृष्ठ)।

मेरे नमूने में वेबसाइटों के आकार में अंतर के कारण, मुझे डेटा को सामान्य करने का एक तरीका खोजना पड़ा।

किसी विशेष समस्या से जूझ रही एक बहुत बड़ी वेबसाइट अन्य समस्याओं से अधिक हो सकती है, छोटी वेबसाइटें हो सकती हैं।

इसलिए मैंने प्रत्येक वेबसाइट को व्यक्तिगत रूप से उन अनुक्रमण मुद्दों को हल करने के लिए देखा जिनके साथ वे संघर्ष करते हैं। फिर मैंने किसी दिए गए वेबसाइट पर किसी दिए गए मुद्दे से प्रभावित पृष्ठों की संख्या के आधार पर इंडेक्सिंग मुद्दों को अंक दिए।

और फैसला है…

यहां सभी आकार की वेबसाइटों पर मुझे मिले शीर्ष पांच मुद्दे दिए गए हैं।

  •      क्रॉल किया गया - वर्तमान में अनुक्रमित नहीं है (गुणवत्ता की समस्या)।
  •      डुप्लिकेट सामग्री।
  •      खोजा गया - वर्तमान में अनुक्रमित नहीं है (क्रॉल बजट/गुणवत्ता समस्या)।
  •      सॉफ्ट 404.
  •      क्रॉल मुद्दा।


आइए इन्हें तोड़ दें।

गुणवत्ता


गुणवत्ता संबंधी समस्याओं में आपके पृष्ठों का सामग्री में पतला होना, भ्रामक या अत्यधिक पक्षपाती होना शामिल है।

यदि आपका पृष्ठ अद्वितीय, मूल्यवान सामग्री प्रदान नहीं करता है जो Google उपयोगकर्ताओं को दिखाना चाहता है, तो आपको इसे अनुक्रमित करने में कठिन समय होगा (और आश्चर्यचकित नहीं होना चाहिए)।

https://takneekivichar.blogspot.com/2022/04/blog-post_18.html

डुप्लिकेट सामग्री


Google आपके कुछ पृष्ठों को डुप्लीकेट सामग्री के रूप में पहचान सकता है, भले ही आप ऐसा नहीं चाहते थे।

एक सामान्य समस्या विभिन्न पृष्ठों की ओर संकेत करने वाले विहित टैग हैं। नतीजा यह है कि मूल पृष्ठ अनुक्रमित नहीं हो रहा है।

अगर आपके पास डुप्लीकेट सामग्री है, तो कैननिकल टैग विशेषता या 301 रीडायरेक्ट का इस्तेमाल करें.

इससे आपको यह सुनिश्चित करने में मदद मिलेगी कि आपकी साइट पर समान पृष्ठ दृश्य, क्लिक और लिंक के लिए एक-दूसरे से प्रतिस्पर्धा नहीं कर रहे हैं।

क्रॉल बजट


क्रॉल बजट क्या है? कई कारकों के आधार पर, Googlebot प्रत्येक वेबसाइट पर केवल एक निश्चित मात्रा में URL क्रॉल करेगा।

इसका मतलब है कि अनुकूलन महत्वपूर्ण है; इसे उन पृष्ठों पर अपना समय बर्बाद न करने दें जिनकी आपको परवाह नहीं है।

शीतल 404s


404 त्रुटियों का अर्थ है कि आपने अनुक्रमण के लिए एक हटाए गए या गैर-मौजूद पृष्ठ को सबमिट किया है। सॉफ्ट 404s "नहीं मिला" जानकारी प्रदर्शित करते हैं, लेकिन सर्वर पर HTTP 404 स्थिति कोड वापस नहीं करते हैं।

हटाए गए पृष्ठों को अन्य लोगों पर पुनर्निर्देशित करना जो अप्रासंगिक हैं, एक सामान्य गलती है।

एकाधिक रीडायरेक्ट सॉफ्ट 404 त्रुटियों के रूप में भी दिखाई दे सकते हैं। अपनी पुनर्निर्देशित श्रृंखलाओं को यथासंभव छोटा करने का प्रयास करें।

क्रॉल मुद्दा


क्रॉल करने में कई समस्याएं हैं, लेकिन एक महत्वपूर्ण समस्या robots.txt के साथ है। अगर Googlebot आपकी साइट के लिए robots.txt ढूंढता है, लेकिन उस तक नहीं पहुंच पाता, तो वह साइट को बिल्कुल भी क्रॉल नहीं करेगा।

अंत में, आइए विभिन्न वेबसाइट आकारों के परिणामों को देखें।

छोटी वेबसाइट


नमूना आकार: 44 साइटें

     क्रॉल किया गया, वर्तमान में अनुक्रमित नहीं है (गुणवत्ता या क्रॉल बजट समस्या)।
     डुप्लिकेट सामग्री।
     क्रॉल बजट मुद्दा।
     सॉफ्ट 404.
     क्रॉल मुद्दा।

https://uchgyaan.blogspot.com/2022/04/blog-post_29.html

मध्यम वेबसाइट


नमूना आकार: 8 साइटें

     डुप्लिकेट सामग्री।
     खोजा गया, वर्तमान में अनुक्रमित नहीं है (क्रॉल बजट/गुणवत्ता समस्या)।
     क्रॉल किया गया, वर्तमान में अनुक्रमित नहीं है (गुणवत्ता समस्या)।
     सॉफ्ट 404 (क्वालिटी इश्यू)।
     क्रॉल मुद्दा।

बड़ी वेबसाइटें


नमूना आकार: 9 साइटें

     क्रॉल किया गया, वर्तमान में अनुक्रमित नहीं है (गुणवत्ता समस्या)।
     खोजा गया, वर्तमान में अनुक्रमित नहीं है (क्रॉल बजट/गुणवत्ता समस्या)।
     डुप्लिकेट सामग्री।
     सॉफ्ट 404.
     क्रॉल मुद्दा।

https://uchgyaan.blogspot.com/2022/04/blog-post_26.html

विशाल वेबसाइट


नमूना आकार: 9 साइटें

     क्रॉल किया गया, वर्तमान में अनुक्रमित नहीं है (गुणवत्ता समस्या)।
     खोजा गया, वर्तमान में अनुक्रमित नहीं है (क्रॉल बजट/गुणवत्ता समस्या)।
     डुप्लीकेट सामग्री (डुप्लिकेट, सबमिट किया गया यूआरएल कैननिकल के रूप में नहीं चुना गया है)।
     सॉफ्ट 404.
     क्रॉल मुद्दा।

सामान्य अनुक्रमण मुद्दों पर मुख्य तथ्य


यह दिलचस्प है कि, इन निष्कर्षों के अनुसार, दो आकार की वेबसाइटें समान मुद्दों से पीड़ित हैं। इससे पता चलता है कि बड़ी वेबसाइटों के मामले में गुणवत्ता बनाए रखना कितना मुश्किल है।

     100k से बड़ा, लेकिन 1 मिलियन से छोटा।
     1 लाख से बड़ा।

हालाँकि, takeaways हैं:


     यहां तक कि अपेक्षाकृत छोटी वेबसाइटें (10k+) भी अपर्याप्त क्रॉल बजट के कारण पूरी तरह से अनुक्रमित नहीं हो सकती हैं।
     वेबसाइट जितनी बड़ी होती है, क्रॉल बजट/गुणवत्ता के मुद्दे उतने ही अधिक दबाव वाले होते जाते हैं।
     डुप्लिकेट सामग्री की समस्या गंभीर है लेकिन वेबसाइट के आधार पर इसकी प्रकृति बदल जाती है।

पी.एस. Google के लिए अज्ञात URL के बारे में एक नोट


अपने शोध के दौरान, मैंने महसूस किया कि एक और सामान्य समस्या है जो पृष्ठों को अनुक्रमित होने से रोकती है।

हो सकता है कि इसने ऊपर की रैंकिंग में अपना स्थान अर्जित नहीं किया हो, लेकिन फिर भी यह महत्वपूर्ण है, और मुझे यह देखकर आश्चर्य हुआ कि यह अभी भी इतना लोकप्रिय है।

मैं अनाथ पृष्ठों के बारे में बात कर रहा हूँ।

हो सकता है कि आपकी वेबसाइट के कुछ पृष्ठों में कोई आंतरिक लिंक न हो जो उन्हें ले जाए।

यदि आपकी वेबसाइट के माध्यम से Googlebot के लिए कोई पृष्ठ खोजने का कोई मार्ग नहीं है, तो हो सकता है कि वह इसे बिल्कुल भी न ढूंढे।

समाधान क्या है? संबंधित पृष्ठों से लिंक जोड़ें।

आप इसे अपने साइटमैप में अनाथ पृष्ठ जोड़कर मैन्युअल रूप से भी ठीक कर सकते हैं। दुर्भाग्य से, कई वेबमास्टर अभी भी ऐसा करने की उपेक्षा करते हैं।

स्रोत: https://www.searchenginejournal.com/page-indexing-issues/398606/

Comments

Popular posts from this blog

10 तकनीकी रुझान जो हमारी दुनिया को बदल देंगे

डिजिटल मार्केटिंग: आपका पूरा ऑनलाइन मार्केटिंग गाइड

मोबाइल प्रौद्योगिकी परिभाषा