Memastikan file ads.txt dapat di-crawl adsense 2020



jasminms.blogspot.comCrawler Google harus dapat mengakses file ads.txt Anda. Setelah Anda membuat file ads.txt dan menyiapkannya di domain root, crawler Google akan:

  • Mencoba meng-crawl file.
  • Menguraikan konten file untuk menentukan ID penjual yang diizinkan untuk memonetisasi inventaris Anda.
Catatan: Mungkin perlu waktu beberapa hari agar perubahan ads.txt ditampilkan di AdSense. Jika situs Anda tidak membuat banyak permintaan iklan, prosesnya dapat memakan waktu hingga satu bulan.

Memecahkan masalah crawler ads.txt

Untuk memastikan file ads.txt dapat di-crawl, sebaiknya lakukan langkah-langkah pemecahan masalah berikut.

Konten lanjutan (tingkat lanjut)  Langkah-langkah ini memerlukan pemahaman tentang kode status HTTP dan ditujukan untuk pengguna tingkat lanjut.

Mengonfirmasi bahwa file tersebut selalu ada

Jika file ads.txt yang sebelumnya ada menjadi tidak ada saat crawling ulang berikutnya, entri yang sebelumnya ada akan:

  • Dihapus jika responsnya adalah error hard 404 (halaman yang sebenarnya tidak ada; status HTTP 404).
  • Disimpan hingga 5 hari jika responsnya adalah error soft 404 (halaman yang ditampilkan untuk URL yang sebenarnya tidak ada; status HTTP 200) atau error server 500.

Konfirmasikan bahwa file dapat dijangkau dari root domain

Pengalihan dari domain.com/ads.txt ke www.domain.com/ads.txt sering terjadi. Crawling ads.txt akan dimulai di root domain, dan root domain harus ditampilkan dari, atau dialihkan ke, file ads.txt tersebut.

File ads.txt di www.domain.com/ads.txt hanya akan di-crawl jika domain.com/ads.txt dialihkan ke file ads.txt.

Pastikan crawling tidak dilarang oleh robots.txt

Crawler mungkin akan mengabaikan file ads.txt untuk domain jika file robots.txt di domain melarang salah satu hal berikut:

  • Crawling jalur URL tempat dipostingnya file ads.txt.
  • Agen Pengguna crawler.
Contoh: Crawling dilarang di jalur file ads.txt

Untuk example1.com:

  1. File ads.txt diposting di example1.com/ads.txt.
  2. Baris berikut disertakan dalam example1.com/robots.txt:
    User-agent: *
    Disallow: /ads
  3. File ads.txt akan diabaikan oleh crawler yang mengikuti standar robots.txt.
  4. Anda dapat mengubah file robots.txt sebagai berikut untuk mengizinkan crawling file (Anda juga dapat menggunakan cara lain):
    • Opsi 1: Ubah jalur yang dilarang.
      User-agent: *
      Disallow: /ads/
    • Opsi 2: Izinkan ads.txt secara eksplisit; bergantung pada dukungan crawler untuk perintah robots.txt Allow.
      User-agent: *
      Allow: /ads.txt
      Disallow: /ads
Contoh: Crawling dilarang untuk Agen Pengguna

Untuk example2.com:

  1. File ads.txt diposting di example2.com/ads.txt.
  2. Baris berikut disertakan dalam example2.com/robots.txt:
    User-agent: Googlebot
    Disallow: /
  3. Crawler Google akan mengabaikan file ads.txt.

Pastikan file menampilkan kode status HTTP 200 OK

Meskipun permintaan untuk file ads.txt akan menampilkan konten file di isi respons, jika kode status di header respons menunjukkan bahwa file tidak ditemukan (contoh, kode status 404):

  • Respons akan diabaikan.
  • File tersebut akan dianggap tidak ada.

Pastikan file memiliki kode status HTTP 200 OK.

Pastikan tidak ada kesalahan format atau karakter yang tidak valid dalam file

Kesalahan format, seperti spasi tambahan yang tidak valid, mungkin sulit dideteksi tetapi dapat membuat file ads.txt sulit diuraikan oleh crawler, dan karenanya dapat menyebabkan file diabaikan. Jangan menyalin dan menempelkan entri ads.txt dari editor rich text; sebaiknya gunakan editor teks biasa. Anda juga dapat memeriksa karakter UTF-8 yang tidak valid di file ads.txt Anda menggunakan editor HEX.

Buat file ads.txt dapat dijangkau melalui HTTP dan HTTPS

Crawler Google mencoba meng-crawl semua file ads.txt pada HTTP dan HTTPS. Namun, respons 404 (atau 40X) menyebabkan entri yang di-crawl sebelumnya dihapus, meskipun file ads.txt di-crawl melalui HTTP. Oleh karena itu, jika crawling melalui HTTPS menampilkan 404 (atau 40X):

  • Entri yang di-crawl sebelumnya akan dihapus.

Pastikan ads.txt dapat diakses melalui HTTP dan HTTPS.


Komentar

Postingan populer dari blog ini

Jelaskan penggunaan database komputer dalam pelayanan SIAK!