Tarayıcınızın Kimliğini Anlayın
Web sitenizin Google arama sonuçlarındaki görünürlüğü, büyük ölçüde Googlebot'un sitenizi nasıl taradığına ve dizine eklediğine bağlıdır. Ancak bazen, sitenizin beklenmedik davranışlar sergilediğini veya Search Console'da garip raporlar gördüğünüzü fark edebilirsiniz. Bu durumların ardında yatan nedenlerden biri, Googlebot'un sitenizi yanlış bir user agent ile taradığını düşünmeniz olabilir. Peki, Googlebot'un sitenizi doğru şekilde tanımlayamadığından şüphelendiğinizde neler yapmalısınız? Bu makale, bu şüphelerinizi doğrulamanız, kök nedenleri bulmanız ve gerekli düzeltmeleri yapmanız için size kapsamlı bir rehber sunacaktır. Amacımız, sitenizin Google tarafından doğru bir şekilde anlaşılmasını sağlayarak hem arama motoru optimizasyonu (SEO) performansınızı artırmak hem de AdSense gibi reklam platformlarından alacağınız değeri maksimize etmektir.
Googlebot'un sitemizi nasıl ziyaret ettiğini anlamadan önce, user agent kavramını netleştirmemiz önemlidir. Bu, teşhis sürecimizin temelini oluşturacaktır.
User agent, bir web tarayıcısının, botun veya uygulamanın bir web sunucusuna istek gönderirken kendini tanımlamak için kullandığı bir karakter dizisidir. Her istekte gönderilen bu bilgi, sunucunun isteği yapan istemcinin kimliğini, türünü, işletim sistemini ve bazen de sürümünü tanımasını sağlar. Örneğin, bir web tarayıcısı "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36" gibi bir user agent stringi gönderebilirken, Googlebot kendi özel user agent'larını kullanır.
Bu tanımlama, web sunucularının istemcilere özel içerik sunmasına, performansı optimize etmesine veya belirli botları engellemesine olanak tanır. Googlebot için bu, sunucunun mobil uyumlu sürümü mü yoksa masaüstü sürümü mü sunacağını belirlemesi gibi kritik kararları etkiler. Yanlış bir user agent algılaması, sitenizin mobil uyumsuz görünmesine, yanlış içeriğin dizine eklenmesine veya önemli kaynakların taranmamasına yol açabilir.
Google, web'i taramak için çeşitli user agent'lar kullanır ve her birinin belirli bir amacı vardır:
* Googlebot Desktop: Masaüstü tarama için kullanılan ana user agent. Genellikle `Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)` şeklinde görünür.
* Googlebot Smartphone: Mobil öncelikli indeksleme için kullanılan ve sitenizin mobil sürümünü tarayan user agent. Bu, sitenizin mobil performansını ve içeriğini değerlendirmek için kritik öneme sahiptir.
* Googlebot Image: Görsel içeriği tarar.
* Googlebot Video: Video içeriğini tarar.
* AdsBot: Reklam hedeflerini doğrulamak için Google'ın reklam botu.
Bu farklı user agent'ların her biri, sitenizin farklı yönlerini analiz etmek ve arama sonuçlarındaki yerini belirlemek için hayati öneme sahiptir. Doğru user agent ile taranmak, Google'ın sitenizin tüm özelliklerini tam olarak anlamasına yardımcı olur.
Googlebot'un sitenizi yanlış user agent ile taradığından şüphelenmenize neden olabilecek bazı yaygın belirtiler ve senaryolar vardır:
* Mobil Kullanılabilirlik Sorunları: Google Search Console'da sitenizin mobil uyumlu olmadığına dair sürekli uyarılar alıyorsunuz, ancak kendi testlerinizde sitenizin mobil cihazlarda mükemmel çalıştığını görüyorsunuz. Bu, Googlebot'un mobil user agent yerine masaüstü user agent ile sitenizi tarıyor olabileceğini veya tam tersini düşündürebilir.
* Beklenmedik İçerik Farklılıkları: Google'ın önbelleğe aldığı sayfanın veya "URL Denetleme" aracında gösterilen HTML'in, sizin beklediğinizden veya canlı sitedeki sürümden farklı olması. Özellikle dinamik içerik sunumu yapan sitelerde (user agent'a göre farklı içerik sunan), yanlış user agent algılaması yanlış içeriğin indekslenmesine yol açabilir.
* Robots.txt Yorumlama Hataları: `robots.txt` dosyanızda belirli user agent'lar için özel kurallar tanımladıysanız (örn. `User-agent: Googlebot-Mobile Disallow: /some-mobile-content/`), ancak Search Console'da bu kuralların beklendiği gibi uygulanmadığını görüyorsanız.
* Sunucu Loglarında Anormallikler: Erişim loglarınızda Googlebot'tan geldiği iddia edilen isteklerde tutarsız veya sahte user agent stringleri görmek. Bu, kötü niyetli botların Googlebot taklidi yaptığının veya sunucunuzun user agent'ları yanlış kaydettiğinin bir işareti olabilir.
* Düşük Tarama Oranı veya İndeksleme Sorunları: Sitenizin Search Console'da gösterilen tarama istatistiklerinin beklentilerinizin altında olması veya yeni sayfaların dizine eklenmesinde gecikmeler yaşanması.
Bu belirtilerden herhangi birini fark ederseniz, bir sonraki adım Googlebot'un sitenizi gerçekten hangi user agent ile taradığını doğrulamaktır.
Googlebot'un sitenizi hangi user agent ile taradığını anlamak için başvurabileceğiniz birkaç güvenilir yöntem bulunmaktadır.
Bu, en doğrudan ve güvenilir yöntemlerden biridir. Web sunucunuz (Apache, Nginx, IIS vb.) her isteği kaydeder ve bu kayıtlarda (genellikle Erişim logları veya access logs olarak bilinir) user agent bilgisi bulunur.
* Log Dosyalarını Bulma: Sunucunuzun `access.log` veya benzeri dosyalarını kontrol edin. CPanel, Plesk gibi panellerde veya SSH/FTP ile sunucunuza bağlanarak bu dosyalara ulaşabilirsiniz.
* Googlebot İsteklerini Filtreleme: Log dosyaları çok büyük olabilir. Googlebot'tan gelen istekleri filtrelemek için `Googlebot` kelimesini aratın. `grep` (Linux/macOS) veya `findstr` (Windows) gibi komut satırı araçları bu konuda size yardımcı olabilir.
* Örnek Linux komutu: `grep "Googlebot" /var/log/apache2/access.log | less`
* User Agent Stringlerini Kontrol Etme: Filtrelenmiş loglarda, her isteğin sonunda bulunan user agent stringini inceleyin. Gerçek Googlebot user agent'ları genellikle `Googlebot/2.1` veya `Googlebot-Mobile/2.1` gibi ifadeler içerir ve sonunda `+http://www.google.com/bot.html` gibi bir URL bulunur.
* IP Adreslerini Doğrulama: Sahte Googlebot'lar user agent stringini kolayca taklit edebilir. Gerçek Googlebot'u teyit etmenin en güvenilir yolu, isteği yapan IP adresinin Google'a ait olduğunu doğrulamaktır. Bunu yapmak için:
1. Loglardan Googlebot olduğu iddia edilen bir IP adresi alın (örn. `66.249.xx.xx`).
2. `host` veya `nslookup` gibi komutlarla bu IP adresini tersten sorgulayın (reverse DNS lookup). Örnek: `host 66.249.xx.xx`.
3. Çıkan hostname'in (örn. `crawl-66-249-xx-xx.googlebot.com`) tekrar IP adresini sorgulayın. Örnek: `host crawl-66-249-xx-xx.googlebot.com`.
4. Eğer ikinci sorgudan çıkan IP, ilk IP adresinizle eşleşiyorsa, bu istek gerçek bir Googlebot'tan gelmiştir. Bu DNS sorgusu işlemi, botun gerçekten Google'a ait olduğunu kesin olarak doğrular.
Google Search Console (GSC), Google'ın sitenizi nasıl gördüğüne dair size değerli bilgiler sunar.
* URL Denetleme Aracı: GSC'deki "URL Denetleme" aracı, belirli bir URL'yi Google'ın en son nasıl taradığını gösterir. "Tarama" bölümünde, Googlebot'un hangi user agent (genellikle "Akıllı Telefon" veya "Masaüstü") ile tarama yaptığını ve bu taramanın ne zaman gerçekleştiğini görebilirsiniz. Sayfayı gerçek zamanlı olarak "Canlı URL'yi Test Et" özelliği ile de test ederek anlık tarama davranışını inceleyebilirsiniz.
* Tarama İstatistikleri Raporu: "Ayarlar" altında bulunan "Tarama İstatistikleri" raporu, Google'ın sitenizi son 90 gün içinde nasıl taradığına dair genel bir bakış sunar. Bu rapor, "Tarayan aracının türüne göre istekler" grafiğinde farklı Googlebot türlerinin (Akıllı Telefon, Masaüstü, Resimler vb.) tarama dağılımını gösterir. Burada beklenmedik bir dağılım görüyorsanız, bu bir soruna işaret edebilir.
* Mobil Kullanılabilirlik Raporu: Eğer bu raporda çok sayıda hata görüyorsanız, ancak sitenizin mobil uyumlu olduğundan eminseniz, Googlebot-Mobile'ın sitenize erişiminde veya yorumlamasında bir sorun olabilir.
Sitenizin `robots.txt` dosyası, Googlebot'a hangi sayfaları tarayabileceğini ve hangi sayfaları tarayamayacağını söyler. Yanlış yapılandırılmış bir `robots.txt` dosyası, belirli Googlebot user agent'larının sitenizin belirli bölümlerini taramasını engelleyebilir.
* User-agent Kurallarını Gözden Geçirme: Dosyanızdaki `User-agent:` direktiflerini kontrol edin. Örneğin, `User-agent: Googlebot` ve `User-agent: Googlebot-Mobile` için farklı `Disallow` kuralları tanımlayıp tanımlamadığınızı doğrulayın. Yanlışlıkla `User-agent: *` altında yaptığınız bir kural, tüm botları etkileyebilir.
* Sözdizimi Hataları: `robots.txt` dosyanızda basit bir yazım veya sözdizimi hatası, tüm dosyanın yanlış yorumlanmasına yol açabilir. Google Search Console'daki `robots.txt` test aracını kullanarak dosyanızın geçerliliğini kontrol edin. (`robots.txt` dosyasının doğru kullanımı hakkında daha fazla bilgi için bu makaleyi inceleyebilirsiniz: [Robots.txt Kullanımı ve En İyi Uygulamaları](https://example.com/robots-txt-rehberi)).
CDN'ler (İçerik Dağıtım Ağları) ve WAF'lar (Web Uygulama Güvenlik Duvarları), sitenize gelen trafiği yönlendirebilir ve manipüle edebilir. Bazen bu servisler, botları tanımlama şekillerinde hatalar yapabilir veya kendi user agent'larını proxy olarak kullanabilirler.
* Bot Yönetimi Ayarları: Özellikle Cloudflare gibi hizmetler, bot yönetimi ve bot algılama özelliklerine sahiptir. Bu ayarların Googlebot'u yanlış bir bot olarak algılayıp engellemediğini veya user agent'ını değiştirmediğini kontrol edin.
* Önbellekleme Kuralları: CDN'ler genellikle önbellekleme kuralları belirler. Eğer önbellekleme, user agent'a göre farklı içerik sunumu yaparken doğru şekilde yapılandırılmamışsa, bu Googlebot'a yanlış bir içerik sunulmasına neden olabilir.
Eğer Googlebot'un sitenizi yanlış user agent ile taradığını doğruladıysanız, işte sorunu düzeltmek için atmanız gereken adımlar:
Sunucu loglarınızda sahte Googlebot user agent'ları veya Google'ın IP aralıklarına uymayan IP'lerden gelen "Googlebot" istekleri görüyorsanız, bu kötü amaçlı botların sitenizi taklit ettiğini gösterir.
* IP Tabanlı Engelleme: Sahte Googlebot IP adreslerini `robots.txt` üzerinden veya sunucu seviyesinde ( `.htaccess` veya Nginx yapılandırması) engelleyebilirsiniz. Ancak, Google'ın IP'leri sürekli değişebileceği için IP tabanlı engelleme yaparken çok dikkatli olun ve sadece kesinlikle sahte olduğundan emin olduğunuz IP'leri engelleyin.
* Güvenlik Çözümleri: Bir WAF veya DDoS koruma hizmeti kullanıyorsanız, bu tür bot taklitlerini algılayıp engellemeleri için yapılandırmalarını kontrol edin ve güncelleyin.
* User-Agent Spoofing'i Tespit Etme: Bazı güvenlik eklentileri veya sunucu modülleri, user agent ile IP adresinin tutarlılığını kontrol ederek bot taklitlerini daha etkili bir şekilde tespit edebilir.
Sunucunuzun user agent'ları nasıl işlediği, Googlebot'un sitenizi doğru taramasını sağlamak için kritik öneme sahiptir.
* HTTP Başlıklarını Kontrol Etme: Web siteniz, sunucu tarafında user agent'a göre dinamik olarak içerik sunuyorsa, `Vary: User-Agent` HTTP başlığını kullanmanız önemlidir. Bu başlık, önbellek sunucularına (CDN'ler dahil) ve tarayıcılara, sayfanın user agent'a göre farklılık gösterebileceğini ve bu nedenle her user agent için ayrı bir önbelleğe alınması gerektiğini söyler. Aksi takdirde, mobil user agent'a özel bir içerik masaüstü user agent için önbelleğe alınabilir ve Googlebot-Mobile'a yanlış içerik sunulabilir.
* Rewrite Kuralları: `mod_rewrite` (Apache) veya Nginx rewrite kurallarınızın user agent'ları yanlış bir şekilde manipüle edip etmediğini kontrol edin. Bazı durumlarda, belirli user agent'ları başka bir sayfaya yönlendiren veya değiştiren kurallar istemeden Googlebot'u etkileyebilir.
WordPress gibi bir İçerik Yönetim Sistemi (CMS) kullanıyorsanız veya özel bir platforma sahipseniz, burada da user agent tabanlı sorunlar ortaya çıkabilir.
* Eklentiler ve Temalar: Kullandığınız eklentilerin veya temanın, user agent'a göre içerik sunan veya değiştiren özellikleri olup olmadığını kontrol edin. Özellikle mobil uyumluluk eklentileri veya güvenlik eklentileri bu tür davranışlara neden olabilir.
* Özel Kodlar: Sitenizde user agent tespiti yapan özel PHP, JavaScript veya diğer sunucu taraflı kodlarınız varsa, bu kodların Googlebot'u doğru şekilde tanımladığından ve istenmeyen bir manipülasyon yapmadığından emin olun.
Doğru canonical etiketleri ve site haritaları, Google'ın sitenizi anlamasına yardımcı olur ve yanlış user agent sorunlarının etkisini azaltabilir.
* XML Site Haritası: Sitenizin tüm önemli ve indekslenebilir sayfalarını içeren güncel bir XML site haritası sunduğunuzdan emin olun. Bu, Googlebot'un sitenizdeki önemli içeriği bulmasına yardımcı olur.
* Canonical Etiketleri: Aynı içeriğin farklı URL'lerde (örn. mobil ve masaüstü URL'leri) bulunduğu durumlarda, `` etiketini doğru bir şekilde kullandığınızdan emin olun. Bu, Google'a hangi sürümün tercih edilen sürüm olduğunu söyler ve yinelenen içerik sorunlarını önler.
* `hreflang` Etiketleri: Eğer çok dilli veya çok bölgeli bir siteniz varsa, `hreflang` etiketlerini doğru kullandığınızdan emin olun.
Googlebot user agent sorunları, web sitesi sahipleri için sinir bozucu olabilir, ancak düzenli izleme ve doğru uygulamalarla bu tür sorunların önüne geçmek mümkündür.
* Sunucu Loglarını Düzenli Kontrol Etme: Haftalık veya aylık olarak sunucu erişim loglarınızı gözden geçirmek, anormal tarama davranışlarını veya sahte Googlebot isteklerini erken tespit etmenize yardımcı olur.
* Search Console Raporlarını Takip Etme: Google Search Console'daki Tarama İstatistikleri ve Mobil Kullanılabilirlik raporlarını düzenli olarak kontrol edin. Beklenmedik düşüşler, artışlar veya hata mesajları, bir sorunun ilk işaretleri olabilir. Search Console'u daha etkili kullanmak için bu rehberi inceleyebilirsiniz: [Google Search Console'u Etkili Kullanım Rehberi](https://example.com/google-search-console-rehberi).
* Google'ın Resmi Kaynaklarını Takip Etme: Google Developers blogunu ve Search Central belgelerini takip ederek, Googlebot'un user agent'ları ve tarama davranışları hakkındaki güncel bilgilere ulaşın.
* Robots.txt ve Meta Etiketlerinin Doğru Kullanımı: Google'ın yönergelerine uygun bir `robots.txt` dosyası ve `` gibi doğru meta etiketleri kullanın.
* Kullanıcı Deneyimine Odaklanma: Google, kullanıcı deneyimine büyük önem vermektedir. Sitenizin mobil cihazlarda hızlı ve erişilebilir olduğundan emin olun. Mobil öncelikli indeksleme çağında bu, SEO başarınız için elzemdir.
* Dinamik Sunumda Dikkatli Olun: Eğer user agent'a göre farklı içerikler sunuyorsanız (dinamik sunum), bunu doğru `Vary: User-Agent` başlığı ile yapın ve her user agent için aynı temel içeriğin sunulduğundan emin olun. Kötü amaçlı bir "cloaking" uygulaması gibi algılanmaktan kaçının.
* Mobil öncelikli indeksleme için sitenizi optimize edin. Mobil sürümünüzün masaüstü sürümünüzle aynı içeriği, meta etiketleri ve yapısal verileri içerdiğinden emin olun.
Sonuç olarak, Googlebot'un sitenizi yanlış user agent ile taradığına dair şüpheleriniz varsa, bu rehberdeki adımları izleyerek sorunu tespit edebilir ve etkili bir şekilde çözebilirsiniz. Düzenli izleme, doğru yapılandırma ve Google'ın yönergelerine uyum, sitenizin arama motorları tarafından doğru bir şekilde anlaşılmasını ve en iyi performansı göstermesini sağlayacaktır. Unutmayın ki, doğru bir şekilde taranan ve dizine eklenen bir site, hem arama görünürlüğü hem de AdSense gibi platformlardan gelir elde etme potansiyeli açısından büyük fark yaratır.