Memastikan file ads.txt dapat di-crawl adsense 2020
jasminms.blogspot.com - Crawler Google harus dapat mengakses file ads.txt Anda. Setelah Anda membuat file ads.txt dan menyiapkannya di domain root, crawler Google akan:
- Mencoba meng-crawl file.
- Menguraikan konten file untuk menentukan ID penjual yang diizinkan untuk memonetisasi inventaris Anda.
Memecahkan masalah crawler ads.txt
Untuk memastikan file ads.txt dapat di-crawl, sebaiknya lakukan langkah-langkah pemecahan masalah berikut.
(tingkat lanjut) Langkah-langkah ini memerlukan pemahaman tentang kode status HTTP dan ditujukan untuk pengguna tingkat lanjut.
Mengonfirmasi bahwa file tersebut selalu ada
Jika file ads.txt yang sebelumnya ada menjadi tidak ada saat crawling ulang berikutnya, entri yang sebelumnya ada akan:
- Dihapus jika responsnya adalah error hard 404 (halaman yang sebenarnya tidak ada; status HTTP 404).
- Disimpan hingga 5 hari jika responsnya adalah error soft 404 (halaman yang ditampilkan untuk URL yang sebenarnya tidak ada; status HTTP 200) atau error server 500.
Konfirmasikan bahwa file dapat dijangkau dari root domain
Pengalihan dari domain.com/ads.txt
ke www.domain.com/ads.txt
sering terjadi. Crawling ads.txt akan dimulai di root domain, dan root domain harus ditampilkan dari, atau dialihkan ke, file ads.txt tersebut.
File ads.txt di www.domain.com/ads.txt
hanya akan di-crawl jika domain.com/ads.txt
dialihkan ke file ads.txt.
Pastikan crawling tidak dilarang oleh robots.txt
Crawler mungkin akan mengabaikan file ads.txt untuk domain jika file robots.txt di domain melarang salah satu hal berikut:
- Crawling jalur URL tempat dipostingnya file ads.txt.
- Agen Pengguna crawler.
Untuk example1.com:
- File ads.txt diposting di
example1.com/ads.txt
. - Baris berikut disertakan dalam
example1.com/robots.txt
:User-agent: *
Disallow: /ads
- File ads.txt akan diabaikan oleh crawler yang mengikuti standar robots.txt.
- Anda dapat mengubah file robots.txt sebagai berikut untuk mengizinkan crawling file (Anda juga dapat menggunakan cara lain):
- Opsi 1: Ubah jalur yang dilarang.
User-agent: *
Disallow: /ads/
- Opsi 2: Izinkan ads.txt secara eksplisit; bergantung pada dukungan crawler untuk perintah robots.txt
Allow
.User-agent: *
Allow: /ads.txt
Disallow: /ads
- Opsi 1: Ubah jalur yang dilarang.
Untuk example2.com:
- File ads.txt diposting di
example2.com/ads.txt
. - Baris berikut disertakan dalam
example2.com/robots.txt
:User-agent: Googlebot
Disallow: /
- Crawler Google akan mengabaikan file ads.txt.
Pastikan file menampilkan kode status HTTP 200 OK
Meskipun permintaan untuk file ads.txt akan menampilkan konten file di isi respons, jika kode status di header respons menunjukkan bahwa file tidak ditemukan (contoh, kode status 404):
- Respons akan diabaikan.
- File tersebut akan dianggap tidak ada.
Pastikan file memiliki kode status HTTP 200 OK.
Pastikan tidak ada kesalahan format atau karakter yang tidak valid dalam file
Kesalahan format, seperti spasi tambahan yang tidak valid, mungkin sulit dideteksi tetapi dapat membuat file ads.txt sulit diuraikan oleh crawler, dan karenanya dapat menyebabkan file diabaikan. Jangan menyalin dan menempelkan entri ads.txt dari editor rich text; sebaiknya gunakan editor teks biasa. Anda juga dapat memeriksa karakter UTF-8 yang tidak valid di file ads.txt Anda menggunakan editor HEX.
Buat file ads.txt dapat dijangkau melalui HTTP dan HTTPS
Crawler Google mencoba meng-crawl semua file ads.txt pada HTTP dan HTTPS. Namun, respons 404 (atau 40X) menyebabkan entri yang di-crawl sebelumnya dihapus, meskipun file ads.txt di-crawl melalui HTTP. Oleh karena itu, jika crawling melalui HTTPS menampilkan 404 (atau 40X):
- Entri yang di-crawl sebelumnya akan dihapus.
Pastikan ads.txt dapat diakses melalui HTTP dan HTTPS.
Komentar
Posting Komentar