Organik trafik çoğu zaman “bir günde” düşmez; önce yavaşlar, sonra tuhaf dalgalanır, ardından kalıcı biçimde zayıflar. İçerik kalitesi iyi görünür, teknik hata raporları sınırlıdır, yine de büyüme durur. Sahada en sık gördüğüm gizli nedenlerden biri “index bloat” yani arama motorunun dizininde gereksiz URL’lerin şişmesi durumudur.
Index bloat (İndeks şişmesi olarka da bilinir), çoğu ekip için “kritik değil” dosyasına atılır. Çünkü gözle görülür bir kırmızı hata üretmez. Oysa dizin tarafında büyüyen gürültü; tarama kaynaklarını boşa harcar, yeni içeriklerin keşfini geciktirir, kanonik seçimleri karıştırır ve değerli sayfaların iç link gücünü seyreltir. Google tarafında “daha fazla URL” her zaman “daha fazla fırsat” anlamına gelmez.
Bu yazıda index bloat’un ne olduğunu, organik performansı hangi mekanizmalarla aşağı çektiğini, hangi kaynaklardan doğduğunu ve en önemlisi nasıl teşhis edilip temizleneceğini danışman gözüyle anlatacağım. Amacım “daha çok teknik terim” değil; doğru URL’lerin doğru hızda, doğru şekilde indekslenmesi.
Index Bloat Nedir?
Index bloat, arama motorunun dizinine giren URL sayısının; sitenin gerçek değer üreten, arama niyetini karşılayan ve sıralama potansiyeli taşıyan sayfalarına göre orantısız biçimde artmasıdır. Genelde filtre/parametre çeşitlenmesi, yinelenen sayfalar, “zayıf” arşivler ve soft 404 benzeri sayfalarla gelişir; zamanla tarama ve indeksleme verimini düşürür.
Index bloat ile “Google her sayfayı indekslemiyor” gerçeğini ayırmak gerekir. Google zaten tüm URL’leri indekslemeyi hedeflemez; benzer içerikleri kümeler, temsilî (canonical) URL seçer ve düşük değerli sayfaları dışarıda bırakabilir.
Sorun, Google’ın dışarıda bıraktığı sayfaların varlığı değil; sitenin kendi içinde gereksiz URL üretiminin kontrolsüz hale gelmesi ve Google’ın tarama/indeksleme sinyallerini “öncelikli sayfalar” yerine “gürültüye” harcaması.
Kısa bir zihinsel model iş görür:
Sitede “indekslenmesini istediğin URL seti” vardır (ürün, kategori, hizmet, rehber, vaka çalışması gibi). Bir de sitenin teknik olarak ürettiği “erişilebilir URL evreni” bulunur (parametreler, arama sonuçları, sayfalama varyasyonları, etiket arşivleri, aynı içeriğin farklı versiyonları). Index bloat, ikinci evrenin birincisini ezmeye başladığı noktada başlar.
Index Bloat Organik Performansı Neden Düşürür?
Index bloat’un etkisi genellikle sıralama kaybı gibi “tek bir metrikte” yakalanmaz; tarama verimliliği, keşif hızı, kanonik tutarlılık ve iç link akışı üzerinden birikerek ilerler. Google, düşük değer katan URL’lerin fazla olmasının tarama ve indekslemeyi olumsuz etkileyebildiğini açıkça belirtir; özellikle fasetli gezinme, oturum tanımlayıcıları, site içi kopyalar, soft error sayfaları ve sonsuz URL alanları kritik başlıklardır.
Tarama Bütçesi ve Keşif Hızı Sessizce Bozulur.
Google’ın kendi tanımında tarama bütçesi; tarama hızı (crawl rate) ve tarama talebinin (crawl demand) birleşimiyle, Googlebot’un taramak “isteyip” tarayabildiği URL sayısını ifade eder.
Düşük değerli URL’ler çoğaldığında iki şey aynı anda olur:
Birincisi, Googlebot sitenin URL evreninde daha fazla “seçenek” görür. Hangisinin işe yarar olduğunu anlamak için taraması gerekir. Fasetli navigasyon dokümanında Google, parametrelerle oluşan filtre URL’lerinin “yeni” göründüğü için botların çok sayıda kombinasyonu taramaya meyilli olduğunu; işe yaramaz olduğunun ancak süreç içinde anlaşılabildiğini anlatır. Sonuç: gereksiz URL’lere fazla tarama, yeni ve önemli URL’lere daha yavaş keşif.
İkincisi, tarama talebi tarafında “kalite” sinyalleri zayıflar. Çok sayıda zayıf sayfanın varlığı; sitenin büyük bölümünün indekslenmeye değmeyen içeriklerden oluştuğu izlenimini güçlendirebilir. Bunun çıktısını genelde Search Console’da “Keşfedildi – şu anda dizine eklenmedi” veya “Tarandı – şu anda dizine eklenmedi” türü grupların büyümesiyle görürsün (tek başına kanıt değildir; ama güçlü bir işaret).
Kanonik Karmaşa Büyür, Google “yanlış” URL’yi Seçebilir.
Google, aynı veya çok benzer içerik kümeleri içinde temsilî bir URL (canonical) seçer; amaç, arama sonuçlarında tek bir versiyonu göstermektir.
Sorun şurada: Sinyaller tutarsızsa (iç linkler farklı varyasyonlara gidiyorsa, sitemap başka URL söylüyorsa, rel=canonical farklı yere işaret ediyorsa, yönlendirmeler karışıyorsa), Google senin tercih ettiğin URL yerine başka bir URL’yi kanonik seçebilir. Search Console “Sayfa dizine ekleme” raporunda yer alan kanonik/duplikasyon durumlarının varlık sebebi zaten budur.
Benim denetimlerde sık rastladığım tablo: Asıl içerik güçlü, fakat parametreli veya sayfalı bir varyasyon “daha çok iç link” aldığı için Google onu temsilî görür. Sonuçta hedef URL değil, varyasyon görünür olur; snippet kalitesi düşer, dahili ölçüm karışır, hatta sayfa zaman içinde tamamen dışarıda kalabilir.
“Robots ile Kapattım” Sanırken İndeks Hâlâ Şişebilir.
Robots.txt taramayı (crawl) kontrol eder; indekslemeyi (index) garantili biçimde durdurmaz. Google, robots ile engellenen bir URL’ye başka yerlerden link verilirse URL’yi bulup indeksleyebileceğini; hatta arama sonuçlarında URL ve bağlantı metni gibi bilgiler gösterebileceğini belirtir. İndeksten düşürmenin doğru yolları; erişimi kısıtlamak, noindex kullanmak veya içeriği kaldırmaktır.

Burada çok kritik bir çifte hata yaşanır:
Bir ekip “şu dizini robots ile kapatayım” der, sonra aynı sayfalara noindex ekler. Google ise robots engeli yüzünden sayfayı tarayıp noindex’i okuyamaz. Google’ın noindex dokümantasyonu, noindex’in çalışması için sayfanın robots.txt ile engellenmemesi gerektiğini özellikle vurgular.
Sonuç: Kapatmak isterken URL’ler indeks tarafında “iz” bırakmaya devam eder, temizlik gecikir.
Soft 404 ve Boş Sayfalar, Tarama Tuzağına Dönüşür.
Soft 404, teknik olarak 200 (başarılı) dönen ama içerik olarak “yok” mesajı veren veya ana içeriği olmayan sayfadır. Google, soft 404’lerin ne olduğunu ve neden problem yarattığını hem blog yazılarında hem de hata giderme dokümanlarında açıklar; önerisi nettir: içerik yoksa 404 döndürmek daha doğrudur.
Index bloat açısından soft 404’ler iki nedenle zararlı: (1) botlar “başarılı sayfa” zanneder, tekrar tekrar gelir; (2) dizinde gürültü oluşturur ve raporlamayı şişirir.
İç Link Gücü ve Sinyal Dağılımı Bozulur
Google, linkleri hem yeni sayfaları keşfetmek hem de alaka düzeyi sinyali olarak kullanır.
Sitede gereksiz URL sayısı arttığında, navigasyon ve listeleme blokları “aynı içeriğe giden farklı yollar” üretir. İç link akışı, hedef sayfalar yerine varyasyonlara dağılır. Özellikle kategori/listeme sayfaları, sayfalama, etiket/arama arşivleri ve parametreli filtreler devreye girdikçe; önemli sayfaların aldığı sinyal yoğunluğu düşer.
Bu etkiyi tek bir güncelleme ile yakalamak zordur. Genelde “neden bazı sayfalar daha geç indeksleniyor?” veya “neden benzer sayfalar birbirini yiyor?” sorularıyla ortaya çıkar.
Index Bloat Hangi Kaynaklardan Doğar?
Index bloat’un kök nedeni çoğu zaman “kötü içerik” değil; kontrolsüz URL üretimidir. Google’ın crawl budget analizinde düşük değer katan URL kategorileri arasında fasetli gezinme, oturum tanımlayıcıları, site içi duplikasyon, soft error sayfaları ve sonsuz URL alanları özellikle öne çıkar.
Şimdi pratikte en sık gördüğüm kaynakları netleştireyim.
Parametreli URL Çeşitlenmesi
Sıralama, filtreleme, arama, takip parametreleri; aynı içeriğin onlarca versiyonunun üretilmesine yol açar. Fasetli navigasyon dokümanında Google, parametre kombinasyonlarının çok büyük URL uzayları üretebildiğini ve bunun aşırı taramaya yol açabildiğini net biçimde anlatır.
Eskiden bazı ekipler Search Console’daki URL parametre aracına bel bağlardı. Google, bu aracın kullanımdan kaldırıldığını duyurdu; yani parametre yönetimi daha çok site düzeyinde doğru mimari ve doğru sinyallerle çözülmeli.
Menü Yapısı ve Filtre Sayfaları
E-ticaret ve listeleme yoğun sitelerde filtreler hem kullanıcı deneyimi sağlar hem de arama motoruna sonsuz varyasyon sunar. Google, filtre URL’lerinin tarama kaynaklarını tüketebildiğini ve yeni URL keşfini yavaşlatabildiğini açıkça belirtir. Ayrıca indekslenmesi gerekmeyen fasetlerin robots.txt ile taramasının engellenmesini; gerekirse URL fragment gibi alternatif yaklaşımları önerir.
Yinelenen İçerik Kümeleri ve Tutarsız Kanonik Sinyaller
“Benim sitede duplicate yok” cümlesi sahada nadiren doğru çıkar. Duplicate çoğu zaman birebir aynı metin değil; çok benzer şablon sayfalar, farklı URL’lerle erişilen aynı içerik, farklı sıra/filtre seçenekleri ve sayfalama varyasyonlarıdır.
Google’ın canonicalization açıklaması; Google’ın temsilî URL seçtiğini ve bunun duplikasyon kümelerini yönetmek için yapıldığını söyler.
Ayrıca “duplicate URL’leri birleştirme” dokümanında; kanonikleştirme için robots.txt kullanılmaması gerektiğini, sitemap ve rel=canonical gibi sinyallerin tutarlı olması gerektiğini vurgular.
Arşiv Sayfaları: Etiketler, Yazarlar, Sayfalama
Blog ağırlıklı sitelerde etiket arşivleri, yazar arşivleri, tarih arşivleri ve sayfalı listeler hızlıca büyür. Eğer her arşiv sayfası gerçek bir kullanıcı niyetini karşılamıyor, özgün açıklama içermiyor ve net bir hedef anahtar kelime stratejisine bağlanmıyorsa; “indekslenebilir ama gereksiz” sınıfına girer.
Bu tarz sayfalarda en büyük risk, ana içerik sayfalarının sinyalini dağıtması ve Search Console raporlarında gürültüyü artırmasıdır. Hangi arşivlerin indekslenmesi gerektiği, “içerik stratejisi” ile “teknik kararların” aynı çizgide buluşmasını gerektirir.
Soft 404 Üreten Arama/Filtre Sayfaları
Site içi arama “sonuç bulunamadı” sayfası 200 döndürüyorsa; Google bunu soft 404 sınıfında değerlendirebilir. Soft 404’lerin doğası ve nasıl ele alınması gerektiği Google dokümantasyonunda net biçimde anlatılır.
Bunu index bloat açısından önemli yapan şey: “sonuç yok” durumlarının sayısının teorik olarak sınırsız olmasıdır.
Robots.txt – noindex Çakışmaları
Robots.txt ile taramayı engelleyip aynı anda noindex kullanmak, özellikle CMS şablonlarında fark edilmeden yapılır. Google’ın noindex dokümanı, noindex’in etkili olması için sayfanın robots.txt ile engellenmemesi gerektiğini açıkça söyler; çünkü bot noindex kuralını görebilmek için sayfayı taramalıdır.
Robots dokümanı da engellenen URL’nin link üzerinden bulunup indekslenebileceğini anlattığı için, “robots yaptım bitti” yaklaşımı çoğu zaman gerçeği yansıtmaz.
Index Bloat Nasıl Tespit Edilir?
Index bloat’u teşhis etmek için “sitede kaç URL var?” sorusu yetmez; “Google hangi URL tiplerine zaman harcıyor, hangilerini indeksliyor, hangilerini dışarıda bırakıyor, neden?” sorularını sistemli okumak gerekir. Search Console’daki Sayfa dizine ekleme raporu; indekslenmeyen sayfaların gerekçelerini gruplar halinde gösterir ve sorunların kaynağına inmek için en hızlı başlangıç noktasıdır.
Aşağıdaki yaklaşım, danışmanlıkta “hızlı teşhis → doğru öncelik” için kullandığım akışın sadeleştirilmiş hâli.
Search Console’da “Sinyal Kümelerini” Ayıkla
Sayfa dizine ekleme raporunda amaç tek tek URL kovalamak değil; tekrar eden URL desenlerini yakalamaktır. Örneğin:
➤ “Duplicate” türü grupların artması, kanonik sinyallerin tutarsız olabileceğini gösterir.
➤ “Soft 404” artışı, şablonların “yok” sayfaları doğru durum koduyla servis etmediğini düşündürür.
➤ “Tarandı – şu anda dizine eklenmedi” benzeri kümeler, kalite/öncelik veya bloat kaynaklı tarama verimsizliği ile bağlantılı olabilir.
Burada pratik hamle: raporu dışa aktar, URL’leri klasör/parametre desenine göre grupla ve en büyük kümeyi önce çöz.
Dizin sağlığını tek metrikle değil, oranla izleyin.
Benim tecrübelerime göre en işe yarayan yaklaşım: tek bir “indekslenen URL sayısı” metriğine takılıp kalmamak. Onun yerine oranı izle: “İndekslenmesini istediğim kanonik URL sayısı / Google’ın gördüğü toplam URL varyasyonu”. Oran bozuluyorsa, içerik üretmeden önce URL evrenini düzeltmek daha yüksek getiri sağlar.
URL Denetimi ile Örnek URL’lerin “Gerçek Durumunu” Kontrol Et
URL Denetimi aracı; Google’ın gördüğü last crawl bilgisi, indeks durumu ve Google tarafından seçilen kanonik URL gibi alanlarda doğrudan gözlem sağlar. Bu araç, “ben böyle ayarladım” ile “Google böyle görüyor” arasındaki farkı kapatır.
Benim pratikte yaptığım: Her problem kümesinden 5–10 URL seçerim. Ardından şu soruların cevabını ararım:
- Google, hangi URL’yi canonical seçmiş?
- Sayfa robots/noindex yönünden erişilebilir mi?
- Sayfa soft 404 sinyali üretiyor mu?
- Sayfa sitemap’te yer alıyor mu ve yer almalı mı?
Sitemap ile “Niyet Seti”ni Kıyasla
Google, sitemap’te arama sonuçlarında görmek istediğin URL’leri listelemeni önerir ve genelde kanonik URL’leri gösterdiğini; sitemap’in kanonik seçime sinyal olabileceğini belirtir.
Index bloat yaşayan sitelerde sitemap çoğu zaman şişmiştir: yönlendirmeye giden URL’ler, noindex sayfalar, parametreli varyasyonlar veya kanonik olmayan versiyonlar sitemap’te durur.
Buradaki kontrol çok basit: Sitemap “kürasyon listesi” gibi davranıyor mu, yoksa otomatik üretilmiş ham URL dökümü mü?
Crawl Bütçesi Kaygısını Doğru Yere Koy
Google’ın crawl budget kılavuzu, her sitenin crawl budget optimizasyonuna ihtiyaç duymadığını; çok büyük ve sık değişen siteler için daha kritik olduğunu söyler.
Fakat “crawl budget sadece dev sitelerin sorunu” cümlesi de yanıltıcı olabilir. Küçük bir site bile parametrelerle veya arşivlerle URL evrenini gereksiz büyütürse; keşif hızı ve indeks tutarlılığı bozulur.
Index Bloat Nasıl Temizlenir?
Index bloat temizliği “tek ayar” değildir; sızıntıyı durdurma, doğru URL’leri güçlendirme ve Google’a tutarlı sinyaller verme işidir. Google’ın kendi dokümanları; düşük değerli URL’lerin tarama ve indekslemeyi olumsuz etkileyebileceğini, fasetli URL’lerin aşırı taramaya yol açabileceğini ve canonical/noindex/robots gibi sinyallerin doğru kombinasyonla kullanılmasını önerir.
Aşağıdaki strateji, “en yaygın bloat kaynakları” ile “en düşük riskli düzeltmeler” üzerinden ilerler.
Tarama ve İndeksleme Kurallarını Birbirine Karıştırma
Önce şu ayrımı netleştir:
- Taramayı azaltmak istiyorsan robots.txt mantıklıdır. Robots standardı, tarayıcıların talimatları nasıl yorumlayacağına dair çerçeveyi tanımlar; Google da robots.txt’yi tarama kontrol aracı olarak konumlar.
- İndeksten düşürmek istiyorsan noindex veya kaldırma gerekir. Google, noindex’in robots.txt içinde desteklenmediğini ve noindex’in çalışması için sayfanın taranabilir olması gerektiğini özellikle söyler.
Bu ayrım, “robots + noindex çakışması” tuzağını engeller.
Parametre ve Faset URL’lerinde (Faceted URL) Hedef: Sonsuz Alanı Kapatmak
Fasetli URL yönetimi dokümanı, indekslenmesi gerekmeyen filtre URL’lerinde robots.txt ile taramayı engellemeyi önerir ve örnek kalıplar paylaşır.
Burada kritik nokta: “hangi filtre sayfaları indekslenebilir?” kararı. Eğer bazı filtre kombinasyonları gerçek arama talebine ve benzersiz değer önerisine sahipse; bunlar ayrı landing page mantığıyla kurgulanmalı, benzersiz içerik ve iç link stratejisiyle desteklenmelidir. Aksi halde, filtrelerin çoğu “kullanıcı deneyimi için” kalır ve tarama açısından kısıtlanır.
URL parametre aracı artık olmadığı için, kalıcı çözüm URL mimarisine dayanmalı…
Faset URL (Faceted URL) Nasıl Oluşur?
Bir kategori veya listeleme sayfasında kullanıcı:
- Marka seçer
- Fiyat aralığı belirler
- Renk, beden, stok durumu gibi filtreler uygular
- Sıralama değiştirir (ucuzdan pahalıya vb.)
Bu işlemler URL’e eklenir:
/ayakkabi?marka=nike&renk=siyah&beden=42&fiyat=100-500
Canonical Sinyallerini Tek Noktaya Hizala
Google, canonicalization’ı “temsilî URL seçme” süreci olarak tanımlar.
Temizlikte amacın, Google’ın seçmesini beklemek değil; seçimini kolaylaştırmaktır. “Duplicate URL’leri birleştirme” dokümanı, kanonik sinyallerin tutarlı olması gerektiğini ve kanonikleştirme amacıyla robots.txt kullanılmamasını özellikle vurgular.
Pratikte hizalama üç alanda yapılır:
- İç linkler: mümkün olduğunca sadece kanonik URL’lere bağlanır. Google’ın linkleri keşif ve alaka sinyali olarak kullandığını unutma.
- rel=canonical: benzer sayfalar arasında doğru temsilî URL’yi işaret eder.
- Sitemap: Google, sitemap’te arama sonuçlarında görmek istediğin URL’leri listelemeni söyler; genelde kanonik URL’ler gösterildiğinden sitemap’in kanonik sinyale katkısı olabilir.
Burada en sık yapılan hata: sitemap’te bir URL’yi “asıl” gösterirken rel=canonical’in başka URL’ye işaret etmesi. Google, bu tür çelişkileri özellikle kaçınılması gereken durumlar arasında sayar.
Soft 404 ve “Boş Sayfa” Setlerini Gerçek 404/410 ile Temizle
Soft 404 tanımı nettir: içerik yok mesajı verip 200 dönen sayfalar. Google, soft 404 yerine gerçek 404 döndürmenin daha iyi olduğunu belirtir.
Temizlikte burada iki hedef var:
- Kullanıcı deneyimi: sayfa yoksa anlamlı bir 404 sayfası göster.
- Bot davranışı: 404/410 ile “bu URL kalıcı değil” sinyali ver.
Eğer hızlı kaldırma gerekiyorsa Google’ın kaldırma/noindex rehberleri devreye girer; fakat kalıcı çözüm yine sayfanın gerçekten kaldırılması veya doğru indeksleme kuralıdır.
Sitemap’i “Temizlik Aracına” Çevir
Google’ın sitemap rehberi, yalnızca aramada görünmesini istediğin URL’leri eklemeyi önerir.
Bu yaklaşımı index bloat temizliğinde kaldıraç olarak kullanabilirsin: sitemap’ten noindex, yönlendirme, parametreli varyasyon ve kanonik olmayan sayfaları çıkarırsın; sitemap’i “kanonik setin listesi” haline getirirsin. Bu, Google’ın önceliklendirmesini daha tutarlı hale getirir.
Search Console ile Doğrulama: “Düzeldi mi?” Sorusunu Ölç
URL Denetimi ve Sayfa dizine ekleme raporu; temizlik sonrası Google’ın hangi sinyali gördüğünü ve hangi URL’yi kanonik seçtiğini doğrulamak için kullanılır.

Benim rutinde baktığım üç gösterge var:
- “Neden dizine eklenmiyor?” kümelerinde parametre/duplikasyon kaynaklı gruplar azalıyor mu?
- Önemli sayfaların kanoniği stabil mi?
- Yeni içeriklerin keşif ve indekslenme hızı artıyor mu? (Dolaylı ölçüm: yeni URL’lerin daha kısa sürede “Geçerli” sınıfa gelmesi)
Sık Sorulan Sorular
Index bloat konusunda en büyük risk, yanlış soruyu sormaktır: “Google neden her şeyi indekslemiyor?” yerine “Google’ın kaynağını hangi URL’ler tüketiyor?” sorusu daha doğrudur. Aşağıdaki sorular, sahada en sık duyduklarımın blog versiyonu; kısa ama net cevaplarla ilerliyorum.
Index Bloat Sadece Büyük Sitelerin Problemi mi?
Hayır. Google crawl budget optimizasyonunun daha çok çok büyük ve sık güncellenen sitelerde kritik olduğunu söyler; ancak küçük bir site bile parametre/filtre/arsivlerle gereksiz URL evreni üretirse keşif ve indeks tutarlılığı zarar görebilir. Asıl mesele site boyutu değil, URL üretiminin kontrolüdür.
Google Zaten Duplikeleri Birleştirmiyor mu?
Google, canonicalization sürecinde benzer sayfalar arasından temsilî URL seçer; bu “deduplication” mantığıdır. Fakat sinyaller çelişkiliyse Google senin tercih ettiğin URL yerine başka bir URL’yi seçebilir. Search Console’daki duplikasyon/kanonik durumları, kontrolün tamamen Google’da olmadığını pratikte gösterir.
Robots.txt ile Engellemek Index Bloat’u Çözer mi?
Robots.txt taramayı engeller; indekslemeyi garanti etmez. Google, robots ile engellenen bir URL’nin web’de başka yerlerden link alması halinde URL’yi bulup indeksleyebileceğini belirtir. İndeksten tamamen çıkarmak hedefleniyorsa noindex veya erişimi kapatma/kaldırma yaklaşımı gerekir.
Noindex Kullanınca Sayfalar Hemen Kaybolur mu?
Noindex’in çalışması için Google’ın sayfayı tarayıp noindex kuralını görmesi gerekir. Google, robots.txt ile engellenen sayfalarda noindex’in görülemeyeceğini ve sayfanın hâlâ sonuçlarda görünebileceğini açıkça söyler. Ayrıca Google’ın yeniden tarama hızı sayfanın önemine göre değişebilir.
Canonical Etiketi Tek Başına Yeterli mi?
Canonical güçlü bir sinyaldir; ancak Google kanonik seçimi çoklu sinyallerle yapar ve temsilî URL’yi kendisi seçer. rel=canonical, sitemap, iç linkler ve yönlendirmeler birbirini desteklemezse etki zayıflar. Google, çelişkili kanonik sinyallerin kullanılmamasını özellikle önerir.
“Soft 404” Yükseliyorsa Neye Odaklanmalıyım?
Soft 404, kullanıcıya “yok” mesajı verip 200 dönen sayfadır. Google, soft 404 yerine gerçek 404 döndürmenin tercih edildiğini belirtir. Öncelik: arama/filtre “sonuç yok” sayfaları, boş arşiv sayfaları ve kaldırılmış içerik şablonları. İlk iş, hangi URL deseninin soft 404 ürettiğini bulmaktır.
Search Console’daki “Dizine eklenmedi” Grupları Her Zaman Kötü mü?
Hayır. Google bazı URL’leri kalite/öncelik nedeniyle dizine eklemeyebilir; bu normaldir. Problem, dizine eklenmeyen kümelerin büyümesi ve bu kümelerin parametre/duplikasyon/soft 404 gibi bloat kaynaklarından beslenmesidir. Sayfa dizine ekleme raporunda “neden” etiketini okuyup desen bazlı müdahale etmek gerekir.
Temizlik Yaparken Yanlışlıkla Önemli Sayfaları Kaybetmekten Korkuyorum, Ne Önerirsin?
Korku haklı; yanlış temizlik organik trafiği hızla düşürebilir. Benim danışmanlık yaklaşımım “önce sızıntıyı durdur, sonra konsolide et” şeklinde ilerler: önce parametre/filtre kaynaklı sonsuz URL alanını kapat, ardından kanonik sinyalleri hizala ve sadece gerçekten değersiz sayfaları noindex/404 ile temizle. Google’ın noindex ve canonical dokümanları burada güvenli çerçeve sağlar.
Trafiğinizi Kontrol Altına Alın.
Index bloat, organik performansı “sessizce” öldürür: tarama kaynakları boşa gider, yeni içerik geç keşfedilir, kanonik sinyaller karışır ve iç link gücü yanlış yerlere akar. Google’ın kendi açıklamaları; düşük değerli URL’lerin tarama ve indekslemeyi olumsuz etkileyebileceğini, fasetli URL’lerin aşırı taramaya yol açtığını ve noindex/robots/canonical’ın doğru amaçla kullanılmasını önerir.
Index bloat temizliği, “SEO işi” değil; site mimarisi ve içerik niyetinin aynı sayfada buluşmasıdır. Bunu doğru yaptığında içerik üretimi daha hızlı karşılık verir, teknik raporlar sadeleşir ve Google’a “ne önemli?” sorusunun cevabı berraklaşır.

