Pages

Sunday, November 28, 2010

Cloaking

Cloaking adalah sebuah cara ilegal dalam teknik search engine optimization (SEO) di mana konten disampaikan kepada spider mesin pencari berbeda dengan yang disajikan kepada pengguna browser . Hal ini dilakukan Cloaking dengan memberikan konten berdasarkan alamat IP atau User-Agent HTTP header dari pengguna meminta halaman.

Ketika pengguna yang diidentifikasi sebagai spider search engine, script sisi server memberikan versi yang berbeda dari halaman web , salah satu yang mengandung konten tidak ada pada halaman terlihat. Tujuan dari cloaking adalah untuk mengecoh mesin pencari sehingga mereka menampilkan halaman ketika sebaliknya tidak akan ditampilkan.

Pada 2006, metode yang lebih baik aksesibilitas, termasuk peningkatan progresif yang tersedia, sehingga cloaking dianggap tidak diperlukan oleh para pendukung bahwa metode. Cloaking sering digunakan sebagai spamdexing teknik, untuk mencoba untuk mengelabui mesin pencari ke situs yang relevan memberikan peringkat yang lebih tinggi, tetapi juga dapat digunakan untuk mengelabui pengguna mesin pencari ke mengunjungi situs berdasarkan uraian mesin pencari situs yang ternyata memiliki substansial yang berbeda, atau bahkan konten porno.Untuk alasan ini, mesin pencari mempertimbangkan cloaking sebagai penipuan atau pelanggar pedoman mereka, dan karena itu, mereka pencatatan situs saat cloaking menipu dilaporkan.

Cloaking adalah bentuk dari teknik doorway.


Teknik yang serupa juga digunakan pada web direktori Open Directory Project. Hal ini berbeda dalam beberapa cara dari cloaking mesin pencari:

  • Hal ini dimaksudkan untuk menipu editor manusia, bukan search engine spider komputer.
  • Keputusan untuk jubah atau tidak sering didasarkan pada HTTP perujuk , agen pengguna atau pengunjung IP, tetapi teknik yang lebih maju bisa juga berdasarkan Teman analisis perilaku klien setelah permintaan halaman beberapa: kuantitas mentah, penyortiran, dan latency antara permintaan HTTP berikutnya dikirim ke halaman website, ditambah adanya cek untuk robots.txt file, adalah beberapa parameter di mana mesin pencari laba-laba sangat berbeda dari perilaku pengguna alami. pengarah ini menceritakan URL dari halaman di mana pengguna mengklik link untuk menuju halaman. Beberapa cloakers akan memberikan halaman palsu kepada siapa saja yang berasal dari situs direktori web, karena editor direktori biasanya akan memeriksa situs-situs dengan mengklik link yang muncul di halaman web direktori. cloakers lain memberikan halaman palsu untuk semua orang, kecuali mereka yang berasal dari mesin pencari utama, ini membuat lebih sulit untuk mendeteksi cloaking, meskipun tidak biaya mereka banyak pengunjung, karena sebagian besar orang menemukan situs-situs dengan menggunakan mesin pencari.
Dikutip dari wikipedia berbahasa inggris, semoga bermanfaat mengingat banyaknya web Indonesia yang berupa Cloaking

No comments:

Post a Comment