Apa Itu Robots.txt? Ketahui Pengertian, Fungsi, dan Cara Settingnya!
Apakah kamu sedang memulai optimasi website? Kalau iya, sebaiknya kamu ketahui apa itu robots.txt. Sudah pernah dengar sebelumnya? Robots.txt atau robot website adalah salah satu elemen penting yang punya peran besar dalam perayapan web.
Singkatnya, robot situs dapat membantu kamu dalam mengelola traffic dari mesin pencari untuk menemukan halaman yang relevan. Dengan robot.txt kamu bisa memastikan agar mesin pencari tidak mengakses halaman yang memang tidak ingin ditampilkan di hasil pencarian.
Karena peran pentingnya ini tentu kamu perlu mengetahui tentang robot.txt lebih banyak. Pastikan strategi optimasi website yang kamu lakukan bisa berjalan lancar dengan mengenali peran robots.txt dan cara mengimplementasikannya berikut!
Apa Itu Robots.txt?
Sebelum menuju ke pembahasan fungsi dan implementasinya, mari kita mulai pahami dari pengertian robots.txt terlebih dahulu. Robots.txt adalah file teks sederhana yang ditempatkan pada direktori root sebuah situs.
File ini berisikan instruksi yang ditujukan pada bot mesin pencari untuk melakukan proses crawl pada website. Sebagai pemilik website, kamu bisa mengelola instruksi crawl yang akan dibuat dalam robot situs. Kamu dapat menentukan halaman mana saja yang diizinkan untuk dirayapi, dan halaman mana yang tidak boleh dirayapi.
Akan tetapi perlu diperhatikan bahwa robot ini tidak mengatur keseluruhan izin akses halaman. Artinya, kamu tidak bisa menggunakan robots.txt untuk mencegah user mengakses ke halaman tertentu di situsmu. Selama user mengetahui URL-nya, halaman apa saja di situsmu tetap bisa dikunjungi.
Robot ini hanya mengatur akses robot perayap mesin pencari saja. Jadi, instruksi yang kamu berikan pada file ini hanya akan mengatur akses visibilitas halaman untuk mesin pencari.
Umumnya setiap website hanya mempunyai satu file robots.txt yang disimpan di direktori root situs. Untuk mengaksesnya, kamu bisa menggunakan alamat URL situs www.namadomainmu.com/robots.txt.
Fungsi Robots.txt
Khususnya dalam konteks optimasi website, robots.txt mempunyai banyak sekali peran penting. Jika kamu ingin situsmu memiliki visibilitas tinggi di hasil pencarian, pastikan untuk mengetahui apa saja fungsi dari robot situs sebagai berikut:
1. Mengelola Akses Mesin Pencari
Mengutip dari Google Search Central, penggunaan robots.txt ditujukan untuk mengelola akses robot mesin pencari ke halaman-halaman tertentu di dalam situs. Kamu bisa mengatur halaman mana yang boleh diindeks dan mana yang tidak.
2. Mencegah Akses ke Halaman yang Terduplikat
Duplikasi konten dapat menimbulkan kebingungan pada mesin pencari. Jika kamu membiarkan mesin pencari mengakses konten yang terduplikat, maka kemungkinan besar strategi SEO kamu jadi kurang efektif. Kamu bisa kehilangan visibilitas konten dan kehilangan halaman penting dari indeks pencarian lho.
Untuk mencegah masalah ini, kamu bisa pakai robots.txt supaya halaman-halaman duplikat tidak diindeks oleh mesin pencari. Dengan begitu, kamu bisa menghindari penalti dari mesin pencari dan memastikan strategi SEO berjalan dengan optimal.
3. Menjaga Kerahasiaan dan Privasi Situs
Terkadang kita mungkin membutuhkan beberapa halaman yang secara khusus digunakan untuk mengelola berbagai resource, seperti gambar, file PDF, atau informasi rahasia lainnya. Agar halaman ini tidak terindeks oleh mesin pencari maka dapat digunakan robots.txt.
Dengan demikian kamu bisa memastikan informasi yang sifatnya rahasia dan private, tidak diindeks dan ditampilkan di SERP. Jadi, kamu bisa memastikan data-data penting yang ada di dalam situsmu terlindungi.
4. Meringankan Beban Server Website
Dengan robots.txt kamu juga bisa mengurangi beban server situs web. Kok bisa gitu? Logikanya seperti ini, semakin banyak halaman yang diindeks oleh bot maka semakin besar juga daya server yang dibutuhkan.
Jika begini maka server yang bekerja terlalu berat akan membuat situs menjadi lambat. Alhasil, web kamu mungkin akan sulit dibuka, sehingga membuat pengunjung lama menunggu dan buru-buru kabur dari situsmu.
Dengan robots.txt kamu bisa menentukan halaman mana saja yang perlu diindeks. Jadi, tanpa membuat server terlalu berat, kamu juga bisa memastikan hanya halaman-halaman penting dalam situsmu saja yang akan di crawl oleh bot mesin pencari.
5. Mengoptimalkan Crawling Budget
Mesin pencari, seperti Google, punya batasan jumlah halaman yang bisa di crawl dalam jangka waktu tertentu, yang disebut crawling budget. Untuk situs-situs besar, tentu sangat penting untuk mengoptimalkan penggunaan crawling budget ini supaya bot bisa fokus pada halaman-halaman yang utama.
Kamu bisa pakai robots.txt buat untuk menutup akses bot ke halaman-halaman yang kurang relevan misalnya, seperti halaman sementara atau hasil pencarian internal. Dengan cara ini, kamu bisa membuat bot berfokus ke halaman utama yang berharga untuk performa SEO situs kamu.
Cara Membuat dan Setting Robots.txt
Nah, setelah kita mempelajari apa itu robots.txt dan fungsinya, sekarang kita akan mempelajari cara membuat dan setting-nya. Pada dasarnya file robots.txt bisa kamu buat dengan generator maupun aplikasi teks biasa seperti Notepad. Selengkapnya, perhatikan langkah-langkahnya berikut:
1. Buat File Robots.txt
Kamu bisa membuat file robots.txt dengan mudah menggunakan text editor seperti Notepad. Caranya, mulai dengan membuat buat file baru dan beri nama “robots.txt”. File ini harus disimpan dalam format teks biasa (plain text).
2. Tentukan Akses untuk Bot
Kemudian, di dalam file robots.txt, kamu bisa menetapkan aturan mengenai halaman mana yang boleh atau tidak boleh diakses oleh bot mesin pencari. Beberapa instruksi yang umum digunakan antara lain, meliputi:
- User-agent: Menentukan bot mana yang akan mengikuti aturan tersebut. Misalnya, User-agent: Googlebot akan mengatur bot Google, atau User-agent: * berlaku untuk semua bot.
- Disallow: Menginstruksikan bot supaya tidak meng-crawl halaman tertentu. Misalnya, Disallow: /admin/ akan mencegah bot mengakses halaman admin.
- Allow: Mengizinkan bot untuk meng-crawl halaman tertentu, terutama jika ada pengecualian. Misalnya, Allow: /public/ akan memberi akses ke folder /public/.
Contoh isi file robots.txt:
User-agent: *
Disallow: /admin/
Disallow: /search/
Allow: /public/
3. Simpan dan Unggah File Robots.txt ke Root Directory
Setelah file robots.txt siap, langkah berikutnya adalah menyimpan dan mengunggah file tersebut ke root direktori situs kamu. Root directory adalah folder utama yang berisikan semua file situs, biasanya direktori ini bisa kamu akses melalui FTP atau file manager di hosting kamu.
4. Uji dan Verifikasi File Robots.txt
Usai mengunggah robots.txt, kamu bisa menguji apakah file tersebut sudah bekerja dengan benar. Untuk memeriksanya kamu bisa menggunakan Google Search Console. Adapun langkah-langkahnya sebagai berikut:
- Masuk ke akun Google Search Console kamu.
- Pilih situs yang ingin diuji.
- Di bagian Coverage atau Crawl, cari opsi untuk menguji robots.txt.
- Lalu, masukkan URL halaman yang ingin diuji untuk melihat apakah halaman tersebut bisa di-crawl atau tidak sesuai aturan yang ada.
Demikian pembahasan tentang apa itu robots.txt, fungsi, dan cara membuatnya yang perlu kamu ketahui. Sekarang, kamu sudah bisa menyesuaikan setting Robots.txt untuk situs kamu kan? Semoga pembahasan di artikel ini bermanfaat ya.
Yuk, kunjungi blog IDwebhost untuk mendapatkan lebih banyak informasi lainnya! Jangan lupa, cek promo hosting kami juga untuk mendapatkan layanan hosting dengan server paling cepat tapi tetap hemat!
Member since 6 Sep 2019