Breaking

बुधवार, 1 अप्रैल 2020

/ / / Google Search Console - Fix URLs Not Indexing Error

Google Search Console - Fix URLs Not Indexing Error

Google Search Console - Fix URL's Not Indexing Error - आये दिन Google Search Console / Webmaster Tool में कुछ ना कुछ Errors आते ही रहते है। आइये आज हम ऐसे ही एक Error URL's Not Indexing को Fix करने वाले है।

लेकिंग उसके पहले हमें यह जानना सबसे ज्यादा जरुरी होगा की आखिर Google Search Console में हमे ऐसे Errors / Issues आते क्यों है। अगर हमें इसका कारन पता हो तो हम इन्हे आसानी से Fix कर सकते है। तो आइये जानते है।
Google Search Console - Fix URL's Not Indexing Error


  • Google Webmaster Tool में इस तरह के Errors सिर्फ तभी आते है जब आपके Website और उसके ऊपर बने हुए बाकि URLs किसी कारण वश Search Console के Crawlers के लिए Unreachable हो ज्याते है।
  • कभी कभी हमारे Website पर एक जैसे (Same) ही एक से ज्यादा URLs हो जाते है जिसके कारण Search Console इनमें Difference नहीं कर पाता। 
  • कभी कभी इन Errors / issues को हम अपनी गलती के वजहसे भी face करने के लिए मजबूर हो ज्याते है। जिसमे Robots.txt का गलत इस्तेमाल, Robot.txt हमारे Website के कोण कोणसे Area को Search Console के Crawlers Access, Read और Index कर सकते है इसके लिए इस्तेमाल में लिए ज्याते है।
  • हमारे द्वारा No-Follow और No-Index Tags का गलत इस्तेमाल भी हमारे Website के URLs को Search Console में Index होने से रोकता है। 
If You Have a Heart Beats Please Subscribe Our Youtube Channel





Solution's For URL's Not Indexing Error

Google Search Console में URL Not Indexing Error आना आम बात है और इसका Solution भी बहोत आसान है। सबसे पहले आपको जानना होगा की आखिर आपके URLs को Index होने से क्या चीज रोक रही है। उसके बाद आपके लिए इस Issue को Solve करना बहोत आसान हो ज्याता है। 

Blocked By Robot.txt File Issue

Robot.txt File हमारे द्वारा Webmasters के Crawlers को निर्देशित करने हेतु इस्तेमाल में लिए जाती है। इसकी मदत से हम Crawlers बताते है की कोण कोण से URLs, Directory, web-pages और Labels को Crawl और Index करना है और कीन्हे Index नहीं करना है। इस Txt में हम Allow और Disallow tags का इस्तेमाल करते है। 

लेकिंग कभी कभी हम इन allow और Disallow Tags का सही से इस्तेमाल नहीं करपाते है क्यों की हमें इसके बारे में ज्यादा जानकारी नहीं होती। और जिन Files, URLs को index करवाना होते है उन्हीको हम Crawlers को index करवाने से रोक देते है। इसके कारण भी ये not indexing और Blocked by Robot.txt errors आपको अपने Google Search Console के Account में देखनेको मिल ज्याता है।

इस Error को Solve करने के लिए आपको Webmaster Tool के Robot.txt tester tool में जाना होगा उसके बाद आपको जिस Website / Blog में ये Error आ रहा है उसे Select करना होगा। 



( किसी कारन वश Image को Remove कर दिया है। )

जिसके बाद आप इसवाले Page पर आजाओगे जहाँ आपको आपका जो URL index नहीं हो रहा है उसका Url डालना है उसके बाद crawler bot type Select करके Test Button पर Click कर देना है। अगर आपका Url Robot.txt की वजह से Index नहीं हो पारहा है तो आपको यहाँ से पता चल जायेगा साथ ही आपको ये भी पता चल जायेगा की कोनसे Bots आपके Urls को index होने से रोक रहे है।  जिसके बाद आप अपने Urls को आसानी से Unblock कर पाओगे और आपका Urls Not indexing वाला Issue भी Solve हो जायेगा। 
URL Unreachable - Robot.txt और robots header Tags की वजह से ही URL's unreachable वाला Error आता है।  जिसके कारण URL's Properly index नहीं हो पाते है।


एक जैसे (Same) URLs

अक्सर जब भी हम किसी एक Topic पर एक से ज्यादा Articles लिखते है तो उनमेसे ज्यादातर Articles के URLs एक जैसे ही Create करते है। मतलब Same Keywords और Phrases का इस्तेमाल करते है, जिसके चलते कभी कभी search Console के Indexing Bots हमारे Articles के URLs को अलग नहीं बल्कि वही पहले वाला URL ही समझते है जो की पहलेसेही Search Console में Indexed है।
अगर कभी Same (Duplicate या फिर Copy) URLs वाली समस्या के कारण आपके website के URLs Google Search Console में Index नहीं हो पाते है तो बेहतर होगा आप अपने URLs में थोड़े बदलाव करके फिरसे Google Search Console index करवाए आपकी URLs Not Indexing वाली समस्या Solve हो जाएगी।  


No-Follow और No-Index tags

No-Follow और No-Index tags का इस्तेमाल हम तभीकरते है जब हम हमारे Websites के या फिर हमारी Website पर बने किन्ही Backlinks और URLs को Search Console में index करवाना ही नहीं चाहते हो। इन Tags का इस्तेमाल करनेसे हमारे Website के URLs Humans के लिए तो Visible होते है पर Google Search console के Bots इन्हे ना तो Read करपाते है और नाही index ऐसे में अगर हम इन tags का कभी गलत जगह इस्तेमाल करते है तो हमें  URL's Not Indexing Errors जैसे Issues को Face करना पड़ता है। 

Keyword Research Kaise kare

इन tags के गलत इस्तेमाल से अगर आपके Website के URLs Search Console में index नहीं हो पारहे है तो आपको इसे Fix करने के लिए थोड़ी ज्यादा मेहनत करनी पड सकती है। क्योंकी ऐसे में आपको आपके Website के पुरे Source Codding को Cross Check करना होगा और इन Tags को remove करना होगा। 


Wrong URLs Creation

दरसल हम सभी जानते है की URL Create करते समय उसमे हमें NumbersUnderscore(_), Special Symbols, और Special Characters का इस्तेमाल नहीं करना होता है। अगर हम इनका इस्तेमाल कभी URL Creation में करते है तो हमारे URLs को Bots सही से रीड नहीं करपाते है जिसके चलते हमें इस URL's Not Indexing Error का सामना करना पड सकता है। 
खैर वो बात अलग है की आजकल Google Search में Ranking पाने के लिए URLs में numbers का इस्तेमाल किया जारहा है। अगर किसी के URLs में Numbers शामिल है तो वो SEO Friendly URL  नहीं कहलायेगा। 
   

Hosting

अगर कभी हमारी Website के URLs Index ना हो या फिर Index होने में Required Time से ज्यादा Time ले तो इसके लिए हमारी Website की Hosting भी जिम्मेदार हो सकती है। क्योंकी कभी कभी Crawlers को हमारे Website का Access पाने में थोड़ी दिक्कतों का सामना करना पड़सकता है। ज्यादातर URL's Not Indexing वाले Errors Shared Web Hosting और Chip Web-hosting में ही आते है। जहाँ Hosting User को अपनी Website के Backend का पूरा Control नहीं मिल पाता।

कोई टिप्पणी नहीं:

टिप्पणी पोस्ट करें