WEB CONTENT
Content dalam website adalah segala sesuatu yang dapat dilihat oleh pengunjung baik berupa gambar, tulisan, animasi, video, suara, tombol navigasi dan sebagainya. Jadi jika kita mengunjungi suatu website sebenarnya yang kita kunjungi adalah content. Pengaturan content ini dilakukan pada saat pemograman website (coding), entah itu jenis contentnya, warna, posisi dan sebagainya. Hal inilah yang mendasari perencanaan pembuatan website harus dilakukan sebaik mungkin, karena content-content yang akan ditampilkan pada website baik posisi maupun jenisnya akan ditentukan dari sini.
Media Standar Penggunaan Web Kontrol
Walaupun Internet dimulai dengan sebuah proyek penelitian pemerintah AS pada akhir 1950-an, web dalam bentuk yang sekarang tidak muncul di Internet sampai setelah Tim Berners-Lee dan rekan-rekannya di laboratorium Eropa (CERN) mengusulkan konsep menghubungkan dokumen dengan hypertext. Tapi itu tidak sampai Mosaic, pendahulu dari Netscape Navigator yang terkenal, tampak bahwa internet menjadi lebih dari sebuah sistem yang melayani berkas. Penggunaan hypertext, hyperlink dan model berbasis halaman berbagi informasi, diperkenalkan dengan Musa dan kemudian Netscape, membantu untuk menentukan konten web, dan pembentukan website. Sebagian besar, hari ini kita kategorikan website sebagai jenis tertentu dari website sesuai dengan isi website berisi.
Model Generatif
Pembelajaran generatif (PG) merupakan terjemahan dari Generative Learning (GL). Berdasarkan model transformasi pengetahuan menurut konstruktivis telah diajukan beberapa model pembelajaran lain. Salah satu model pembelajaran diusulkan oleh Osborne dan Wittrock pada tahun 1985 adalah model pembelajaran generatif karena didasarkan pada teori belajar generatif dimana pembelajaran generatif merupakan suatu model pembelajaran yang menekankan pada pengintegrasian secara aktif pengetahuan baru dengan menggunakan pengetahuan yang sudah dimiliki siswa sebelumnya. Pengetahuan baru itu akan diuji dengan cara menggunakannya dalam menjawab persoalan atau gejala yang terkait. Jika pengetahuan baru itu berhasil menjawab permasalahan yang dihadapi, maka pengetahuan baru itu akan disimpan dalam memori jangka panjang.
Model pembelajaran generatif berbasis pada pandangan konstruktivisme, dengan asumsi dasar bahwa pengetahuan dibangun dalam pikiran siswa. Hal ini ditegaskan Wittrock bahwa intisari dari pembelajaran generatif adalah otak tidak menerima informasi dengan pasif, melainkan justru dengan aktif mengkonstruksi suatu interpretasi dari informasi tersebut dan kemudian membuat kesimpulan.
Model pembelajaran generatif merupakan salah satu model pembelajaran yang dilakukan dengan tujuan agar siswa secara aktif mengkonstruksi pengetahuan dalam pembelajaran. Dalam teori belajar generatif merupakan suatu penjelasan tentang bagaimana seorang siswa membangun pengetahuan dalam fikirannya seperti membangun ide tentang arti sutau istilah dan membangun strategi agar sampai pada suatu penjelasan tentang pertanyaan “bagaimana” dan “mengapa”
Model Retorika
Model komunikasi yang digunakan oleh Aristoteles pada dasarnya adalah
model komunikasi paling klasik, model ini disebut model retoris (rhetorical model).
Inti dari komunikasi ini adalah persuasi, yaitu komunikasi yang terjadi
ketika seorang pembicara menyampaikan pembicaraannya kepada khalayak
dalam mengubah sikap mereka. Ilmu retorika pada awalnya dikembangkan di
Yunani berkaitan dengan ilmu tentang seni berbicara (Techne Rhetorike).
Dalam bukunya yang berbicara mengenai Rhetorica, Aristoteles berusaha mengkaji mengenai ilmukomunikasi itu sendiri dan merumuskannya kedalam model komunikasi verbal. Model komunikasi verbal dari Aristoteles ini merupakan model komunikasi pertama dalam ilmu komunikasi. Ia juga menuliskanbahwa suatu komunikasi akan berjalan apabila ada 3 unsur utama komunikasi yaitu pembicara (speaker), pesan (message), dan pendengar. Aristoteles memfokuskan komunikasi pada komunikasi retoris atau yang lebih di kenal saat ini dengan komunikasi publik (public speaking) atau pidato, sebab pada masa itu seni berpidato terutama persuasi merupakan keterampilan penting yang dibutuhkan pada bidang hukum seperti pengadilan, dan teori retorika berpusat pada pemikiran mengenai retorika (mempersuasif).
Perlu diingat bahwa model komunikasi ini semakin lama semakin
berkembang, tapi selau akan ada tiga aspek yang selalu sama dari masa ke
masa, yaitu : sumber pengirim pesan, pesan yang dikirimkan, dan
penerima pesan.
Web Annotation
Sebuah penjelasan web anotasi secara online terkait dengan sumber
daya web, biasanya sebuah halaman web. Dengan sistem penjelasan Web,
pengguna dapat menambah, mengubah atau menghapus informasi dari sumber
daya Web tanpa memodifikasi sumber daya itu sendiri. Penjelasan dapat
dianggap sebagai lapisan di atas sumber daya yang ada, dan ini lapisan
penjelasan biasanya dilihat oleh pengguna lain yang berbagi sistem
penjelasan yang sama. Dalam kasus tersebut, alat anotasi web adalah
jenis perangkat lunak sosial. Untuk sistem anotasi teks berbasis Web,
lihat teks penjelasan. Web penjelasan dapat digunakan untuk tujuan
berikut:
- untuk menilai sumber daya Web, seperti dengan kegunaannya, user-keramahan, kesesuaian untuk dilihat oleh anak di bawah umur.
- untuk meningkatkan atau menyesuaikan isinya dengan menambahkan / menghapus materi, sesuatu seperti wiki.
- sebagai alat kolaboratif, misalnya untuk membahas isi dari suatu sumber daya tertentu.
- sebagai media kritik seni atau sosial, dengan memungkinkan pengguna Web untuk menafsirkan, memperkaya atau memprotes institusi atau ide-ide yang muncul di Web.
- untuk mengukur hubungan antara fragmen transien informasi.
Tags
Tags atau Keywords adalah penting dalam pemasaran di Internet ,
dengan ini kemungkinan peselancar mangunjungi website bisa diarahkan,
dan sesuai dengan keyword “Informatika” maka anda dapat membandingkan
dari bermacam-macam search engine atau social bookmark. Berikut ini
adalah tinjauan bermacam-macam search engine yang merujuk pada keyword
atau tag yang sama yaitu “Informatika dan yang berkaitan”. Search engine
itu antara lain : Google Blog Search, Yahoo Search , Technorati Tags,
Del.icio.us Tags, LiveJournal Tags, 43 Things Tags, Buzzwords (Buzznet)
Tags.
Metadata
Metadata biasa didefinisikan sebagai “data tentang data” atau dapat
juga disebut dengan “informasi mengenai suatu data”. Metadata
mendeskripsikan isi, kualitas, kondisi, dan karakteristik lainnya
mengenai suatu data yang ditulis dengan format standard.
Metadata memiliki fungsi yang sama seperti katalog yaitu untuk:
- mengidentifikasi suatu data
- mengelompokkan data yang serupa
- membedakan data menurut kriteria tertentu
- memberikan informasi penting berkaitan dengan data
Rich Snippets
Rich Snippets adalah data tambahan dari blog/postingan kamu yang
akan ikut ditampilkan pada halaman mesin pencarian (SERP). Berbagai data
yang bisa dimasukkan seperti rating, vote, author, tanggal, file audio,
resep masakan, produk (harga, stok, dsb), event, dan banyak yang
lainnya.
Web dan Perilaku Penggunaan / Interaksi Manusia-Komputer
Adalah sebuah hubungan antara manusia dan komputer yang mempunyai
karakteristik tertentu untuk mencapai suatu tujuan tertentu dengan
menjalankan sebuah sistem yang bertopengkan sebuah antarmuka
(interface).
Perilaku Navigasi
Pada suatu situs (jual beli khususnya) penggunaan navigasi yang
baik sangat penting untuk dilakukan bagi para pembuat online. Para
pembuat situs website tersebut harus bisa membuat suatu navigasi agar
pengunjung situs tersebut tidak bosan dengan melihatnya. Ada dua tipe
navigasi. Yang pertama adalah yang standar, yang memberikan overview dan
peta penjelajahan situs. Biasanya bisa ditemukan secara konsisten baik
di bagian atas, samping atau footer. Yang kedua adalah navigasi versi
advance. Jenis ini masih bertujuan memberikan alat untuk menelusuri
situs, namun dengan cara lebih spesifik. Misal lewat kategori,
pengarang, produsen, range harga, dan lain lain. Navigasi semacam ini
sebenarnya mirip dengan fitur search namun sudah diberi antar muka yang
lebih intuitif. Alih-alih model kotak isian teks kosong, calon pembeli
diberi beberapa nilai default yang bisa dipakai lewat link yang
disediakan. Lebih keren lagi, calon pembeli bisa melakukan penelusuran
bertingkat, misalnya: kategori buku, di-drilldown dengan topik IT dan
Marketing, di-tune lagi pada level berikutnya dengan range harga 100
ribu sampai 400 ribu, lalu difinalisasi dengan reviewed by NavinoT.
Calon pembeli pun akan sampai pada apa yang benar-benar dia cari.
Permasalah dalam kaitan dengan:
- Para pemakai interface website tidak mengetahui daerah atau dalam hal ini lembaran- lembaran pada situs.
- Struktur lokasi tidak dapat ditemukan.
Pemakai interface situs seharusnya diberikan suatu pemahaman dari
struktur yang menyangkut dari suatu ruang dari informasi tersebut. Maka
sebaiknya disiapkan:
- Tabel Index (Peta Lokasi)
- Index
- Navigasi
- Fasilitas Pencarian (Search)
Perilaku Pencarian
Fitur pencarian internal tentunya telah di desain dengan batasan
tertentu. Ketika situs Anda tumbuh tentunya Anda akan semakin tahu pola
pemakaian oleh pengguna. Termasuk di dalamnya adalah pola pencarian
dalam rangka mendapatkan pengalaman terbaik dalam pemanfaatan situs.
Dalam kasus seperti diatas kita ingin membandingkan 2 situs jual
beli online dimana kita liat dari navigasi dan pencarian yang terdapat
didalam situs web tersebut.
Seperti kasus diatas kita membandingkan 2 situs jual beli online
yang dimana kita dapat melihat perbedaan dari navigasi dan pencarian
yang terdapat didalam situs web tersebut. Tokobagus.com merupakan salah
satu website atau situs belanja online (e-commerce) yang besar dan
terkenal di Indonesia. Website ini masih memiliki accessibility yang
belum terpenuhi, sebab penggunaan bahasa pada website ini masih
menggunakan bahasa Indonesia, padahal apabila ada translate khusus
tiap-tiap negara akan membuat website ini lebih banyak dikunjungi oleh
para konsumen lokal maupun asing. Penempatan menu yang terstruktur dan
berposisi di pojok kanan atas membuat website ini terlihat menarik dan
indah dilihat. Menurut saya, website ini sudah memiliki prinsip
available, sebab menu yang mereka tampilkan sudah tersedia semua di
tampilan awal, jadi para pengunjung atau konsumen di beri kemudahan dan
tidak dipersulit untuk membukanya ke halaman yang lain. Kejelasan pada
website ini sudah tidak diragukan lagi, karena adanya penjualan online
(e-commerce) di Tokobagus.com. Website Tokobagus.com dapat di akses oleh
beberapa browser seperti Mozila Firefox dan Google Chrome tanpa adanya
perubahan sedikitpun didalamnya, karena website ini diatur oleh admin,
jadi penggunaan tidak bisa dipersonalisasi oleh user.
REKOMENDASI WEB DAN PRILAKU SOSIAL
Web merefleksikan perilaku sosial
Sebuah web juga dapat merefleksikan perilaki sosial masyarakatnya,
dengan adanya alat pengukur banyaknya orang/ IP address yang mengakses
web tersebut dapat menunjukkan bahwa web tersebut menarik perhatian
masyarakat dan pastinya akan mempengaruhi sikap sosial seaeoramg
contohnya seseorang yang sering mengakaksea situs belanja online akan
mempunyai gaya hidup yang boros karena tergiur oleh harga yang lebih
murah daripada conter ataupun diskon-diskon yang ada.
Web mempengaruhi perilaku sosial
web sebagai salah satu bentuk teknologi dan informasi yang sangat
populer di masyarakat menjadi salah satu pemicu yang mempengaruhi
perilaku sosial masyarakat. ada dua dampak yang dimbulkan yaitu dampak
positif dan dampak negatif, dampak postifnya adalah :
- Lebih cepat dan mudah dalam meyelesaikan pekerjaan dalam hal ini berarti membantu pekerjaan manusia
- Dapat berkomunikasi dengan baik tidak peduli jarak dan waktu sehingga membuat manusia saling berinteraksi dengan mudah
- Mudah mencari informasi serta berbelanja online pun dapat dilakukan
Dampak negatif :
- Bahaya radiasi dari perangkat komputer
- Meluasnya Perjudian
- Mengurangi sifat sosial manusia karena cenderung lebih suka berhubungan lewat internet daripada bertemu langsung.
- Pola interaksi sosial berubah
- Mudah belanja lewat internet mengakibatkan budaya konsumsi yang menimbulkan keborosan.
- Munculnya pornografi/konten konten dewasa.
- Maraknya kejahatan via dunia maya dll.
Struktur Web dan Analisa Web
Yang paling penting ketika membuat sebuah situs web adalah desain
konseptual, atau lebih tepatnya penampilan. Selain teks, situs itu
sendiri juga harus memiliki grafis yang sangat baik, grafis harus
dirancang sedemikian rupa sehingga ketika seseorang mengunjungi situs
pertama melihat tata letak grafis nya. Dari latar belakang, header,
konten footer dan semua harus diperlakukan sebagai desain web grafis
adalah seni menciptakan sebuah website itu sendiri harus terlebih dahulu
dari semua terlihat sangat bagus. Dalam program Adobe CS5 Fireworks,
Anda dapat melakukan penampilan grafis seluruh website Anda. Setelah
Anda mendapatkan ide segera, dan kadang-kadang baginya untuk menjadi dan
satu hari. Segala sesuatu yang Anda bisa memikirkan, dan segera menarik
lebih ditarik template Anda akan mendapatkan yang asli.
Link Structure, small world
Sebuah jaringan kecil dunia adalah jenis grafik matematika di mana
sebagian besar node tidak tetangga satu sama lain, tetapi kebanyakan
node dapat dicapai dari setiap lain oleh sejumlah kecil hop atau
langkah-langkah. Secara khusus, jaringan-dunia kecil didefinisikan
sebagai jaringan di mana L jarak khas antara dua node yang dipilih
secara acak (jumlah langkah yang diperlukan) tumbuh secara proporsional
dengan logaritma dari jumlah node N dalam jaringan, yaitu:
Dalam konteks jaringan sosial, hasil ini dalam fenomena dunia kecil
dari orang asing yang dihubungkan oleh saling kenalan. Banyak grafik
empiris dengan baik dimodelkan oleh jaringan kecil dunia. Jaringan
sosial , konektivitas dari internet , wiki seperti Wikipedia, dan
jaringan gen semua karakteristik jaringan-dunia kecil pameran.
Social Networking
Social Networking adalah sebutan lain terhadap website community.
Social Networking adalah tempat untuk para netter berkolaborasi dengan
netter lainnya. Bentuk kolaborasi antara lain adalah saling bertukar
pendapat/komentar, mencari teman, saling mengirim email, saling memberi
penilaian, saling bertukar file dan yang lainnya. Intinya dari situs
social networking adalah interaktifitas. Contoh dari social networking
yang sering digunakan: Facebook, Friendster, MySpace, Twitter, dll.
Blogosphere
Blogosphere adalah suatu interkoneksi / interaksi antar blog yangg
tergabung dalam sebuah domain dan domain tersebut tergabung dalam
lingkup jaringan / internet, Contohnya, Technorati, Top of Blogs, Blog
Top site, blogspot termasuk juga dengan blog directory, sebuah
blogosphere biasanya diklasifikasikan menurut jenis postingan, ada
berupa blog berita, blog hoby , blog forum, blog komunitas, blog
iformasi dll.Istilah Blogosphere muncul pada tahun 1999 dan mulai
populer tahun 2002, walaupun lahir dari sebuah lelucon keberadaan
Blogosphere kini menjadi sebuah ikon bagi blogger, banyak blogger yang
menganggap belum lengkap bila seorang blogger belum tergabung ke dalam
komunitas Blogosphere hingga jadi ikon eksistensinya dalam dunia
blogging.( apa benar begitu..??? )
Manfaat Blogosphere ini tak lepas kaitannya dari SEO ( Search
Engine Optimization ), layaknya sebuah komunitas keberadaan Blogosphere
memberikan jalinan komunikasi antar blogger, membuat akses posting yg
popular dan menjadi sebuah trend, atau mengupdate suatu bahasa dan
kosakata untuk sebuah komunitas blog sehingga menjadi kepopuleran
tersendiri.
Pengukuran Web
Di bawah ini ada beberapa tools yang digunakan untuk mengukur
website dari segi kecepatan akses dan performanya, serta mengukut
banyaknya pengunjung suatu website, berikut ini penjelasan mengenai
beberapa tools yang digunakan untuk mengukur kecepatan akses website.
1. Pingdom Tools
Pingdom Tools merupakan sebuah alat ukur kecepatan website dapat di
akses, nilai dari sebuah website, dan berapa ukuran dari sebuah
website tersebut. Beberapa kelebihannya di kategorikan sebagai berikut
:
- Performance Grade : melihat nilai kecepatan performa halaman web, dari akses DNS, browser cache, combine external css dan lain-lain.
- Waterfall : melihat detail kecepatan akses ketika membuka halaman web, dari gambar bahkan sampai seberapa cepat script tersebut dapat di akses.
- Page Analysis : melihat detail analisa halaman web.
- History : melihat detail akses dari beberapa hari lalu.
Kekurangan yang terdapat pada tools ini, sama seperti tools alat
ukur akses web pada umumnya yaitu Membutuhkan akses internet yang
stabil, karena tidak mungkin kita bisa mengukur kecepatan akses suatu
website kalau akses internet kita terhadap website tersebut tidak
stabil/berjalan dengan baik.
2. GTmetrix
GTmetrix adalah website untuk menganalisa kecepatan web yang
tersedia secara gratis, dengan menggunakan google page speed dan Yahoo
Yslow sebagai analyze engine dan untuk menampilkan hasil serta
rekomendasi yang harus dilakukan.
Dengan GTmetrix juga dapat membandingkan beberapa URL sekaligus dan jika mendaftar sebagai anggota maka dapat:
- Melihat tes sebelumnya untuk membandingkan hasilnya
- Menjadwalkan cek website secara otomatis
- Menyimpan laporan
- Memilih hasil laporan untuk ditampilkan kepublic atau tidak
Kelebihan GTmetrix :
- Dapat menggunakan google page speed dan YSLOW sebagai analyze engine
- Dapat membandingkan beberapa URL sekaligus
- Menjadwalkan cek website secara otomatis
- Dapat menyimpan laporan
- Memilih hasil laporan untuk ditampilkan kepublic atau tidak.
Kekurangan GTmetrix :
- Jika menggunakan GTmetrix harus menggunakan internet yang cepat.
3. Alexa Rank
Alexa Internet, Inc. adalah perusahaan yang berbasis di California
yang mengoperasikan situs yang menyediakan informasi mengenai banyaknya
pengunjung suatu situs dan urutannya. Alexa Internet didirikan pada
tahun 1996 oleh Brewster Kahle dan Bruce Gilliat. Cara kerja Alexa rank
Alexa memberikan peringkat ke sebuah situs berdasarkan jumlah pengunjung
unik. Semakin rendah alexarank dari situs berarti situs memiliki
sedikit pengunjung unik.Jadi jika Anda bisa mendapatkan lebih banyak
traffic ke situs Anda, Anda akan mendapatkan lebih rendah alexa rank.
Kelemahan Alexa:
- Jika pengguna internet (pengakses situs anda tidak menginstal Alexa Toolbar di browsernya) maka sekalipun ada 1000 pengunjung situs anda dalam sehari, Alexa akan tetap menilai situs anda tidak ada pengunjungnya.
- Jika dalam sehari ada yang mengakses situs anda 20 kali dengan alamat IP(Internet protocol) yang sama, maka akan dianggap situs anda hanya dikunjungi oleh 1 satu orang hanya dapat poin 1, akan berbeda jika situs anda dikunjungi oleh 20 orang dengan alamat IP berbeda (unik) maka situs anda akan memperoleh nilai 20 (nilai ini hanya pengandaian, Alexa mempunyai formula sendiri dalam menentukan nilai sebuah web) .
Kelebihan Alexa :
- Alexa rank akan menampilkan tingkat popularitas dari sebuah situs web yang dibandingkan dengan web milik kita,termasuk jangkauan,tampilan halaman,dan masih banyak lagi.
- Pencarian analisa akan menampilkan kepada kita yang merupakan syarat untuk kita untuk berkompetisi untuk mendapatkan sebuah traffic
- Data pengunjung akan menampilkan kepada kita apa yang menarik dari website kita yang dilihat oleh pengunjun – pengunjung website kita
- Data clickstream akan menampilkan kepada kita sebagai pemilik website dimana dalam mendapatkan traffic dari program keanggotaan dan kemitraan.
Analisis Web
Tools-tools pengukur analisis web :
- SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.
- GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.
Kelebihan dari GTmetrix :
1. dapat membandingkan beberapa URL secara bersamaan
2. dapat menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan
Kekurangan dari GTmetrix:
1. dalam penggunaan GTmetrix harus menggunakan koneksi internet yang cepat.
Crawler
Crawler adalah proses pengambilan sejumlah besar halaman web dengan
cepat kedalam satu tempat penyimpanan lokal dan mengindexnya
berdasarkan sejumlah kata kunci. yakni sebuah komponen utama dalam
sebuah Search Engine (Mesin Pencari), sebagai Aplikasi Information
Retrieval Modern.
Cara kerja: suatu data dikumpulkan oleh web crawler kemudian
digunakan oleh mesin pencari untuk memberikan link situs yang relavan
bagi pengguna ketika mereka melakukan pencarian. web crawler menangkap
banyak hal yang berbeda ketika mereka memindai situs. Informasi
diperoleh dari metatag, konten itu sendiri dan link. untuk mendapatkan
ide yang baik dari apa situs adalah tentang. Crawler digunakan sebagai
scan situs anda. jika ada bagian-bagian tertentu dari situs yang
seharusnya tidak diindeks, mereka harus mencatat dalam file ini. setelah
mendapat instruksi crawler dari file ini, akan mulai dengan merangkak
halaman situs anda.
Ini kemudian akan melanjutkan ke indeks konten, dan kemudian
akhirnya akan mengunjungi link di situs Anda. Jika crawler mengikuti
link dan tidak menemukan halaman, maka akan dihapus dari indeks.
Informasi yang dikumpulkan dari situs Anda kemudian disimpan dalam
database, yang kemudian digunakan oleh mesin pencari.
Beberapa Contoh Web Crawler :
1. Teleport Pro
Salah satu software web crawler untuk keperluan offline browsing.
Software ini sudah cukup lama popular, terutama pada saat koneksi
internet tidak semudah dan secepat sekarang. Software ini berbayar dan
beralamatkan di http://www.tenmax.com.
2. HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack
merupakan software yang dapat mendownload konten website menjadi sebuah
mirror pada harddisk anda, agar dapat dilihat secara offline. Yang
menarik software ini free dan dapat di download pada website resminya di
http://www.httrack.com
3. Googlebot
Merupakan web crawler untuk membangun index pencarian yang
digunakan oleh search engine Google. Kalau website anda ditemukan orang
melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau
konsekuensinya, sebagian bandwidth anda akan tersita karena proses
crawling ini.
4. Yahoo!Slurp
Jika Googlebot adalah web crawler andalan Google, maka search
engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh
Inktomi Corporation yang diakuisisi oleh Yahoo!.
5. YaCy
Sedikit berbeda dengan web crawler lainnya di atas, YaCy
dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan
menggunakan java, dan didistribusikan pada beberapa ratus mesin computer
(disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk
berbagi index, sehingga tidak memerlukan server central. Contoh search
engine yang menggunakan YaCy ialah Sciencenet, untuk pencarian dokumen
di bidang sains.
Search Engine
Search Engine adalah program komputer yang dirancang untuk
melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www,
ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah
komputer peladen dalam suatu jaringan. Search engine merupakan perangkat
pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian
umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan
menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang
disebut sebagai hits. Informasi yang menjadi target pencarian bisa
terdapat dalam berbagai macam jenis berkas seperti halaman situs web,
gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga
diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam
suatu basisdata ataupun direktori web.
Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang
menggunakan algoritma kepemilikan dan basisdata tertutup, di antaranya
yang paling populer adalah Google (MSN Search dan Yahoo!). Telah ada
beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open
source), contohnya adalah Htdig, Nutch, Egothor dan OpenFTS.
contoh-contoh search engine :
1. Google
Google muncul pada akhir tahun 1997, dimana google memasuki pasar yang
telah diisi oleh para pesaing lain dalam penyediaan layanan mesin
pencari, seperti Yahoo, Altavista , HotBot, Excite, InfoSeek dan Lycos.
dimana perusahaan-perusahaan tersebut mengklaim sebagain perusahaan tabg
bergerak dalam bidang layanan pencarian internert. Hingga akhirnya
Google mampu menjadi sebagai penyedia mesin pencari yang cukup
diperhitungkan didunia.
2. Yahoo
Yahoo raja directori di internet disamping para pengguna internet
melihat DMOZ serta LookSma berusaha menurunkan nya diposisi puncak
tersebut. akhir-akhir ini telah tumbuh secara cepat dalam ukurannya
mereka pun sudah memliki harga sehingga mudah untuk memasukinya, dengan
demikian mendapatkan sebuah daftar pada direktori yahoo memang memiliki
nilai yang tinggi.
3. Alta Vista
Alta vista adalah salah satu dari search engine yang tertua dan paling
terkenal. Diluncurkan padaDesember 1995. Altavista ini dimiliki oleh
Digital, lalu dibawa oleh Compaq, kemudiandibuat menjadi perusahaan yang
terpisah, dimana sekarang dikontrol oleh CMGI. Lebihdari setahun,
mereka telah kehilangan posisinya daripada Yahoo dan Google.
Altavistasendiri merupakan salah satu search engines yang sangat cepat
dan memiliki cakupanyang luas serta mampu elakukan pencarian dokumen
full-text pada web dan artikel-artikel usenet. Pencarian artikel sendiri
dapat dilakukan dengan kata kunci, frase kunci,atau berupa pertanyaan
dibantu dengn operator “boolean” (and, or, and not, near).Kelebihan lain
dari altavista adalah adanya fasilitas “spelling checker” yang
secaraotomatis dapat menginformasikan keyword pencarian yang salah dan
membetulkannyatanpa melakukan pencarian ulang.
Web Archiving
Web Archiving adalah proses mengumpulkan bagian dari WWW dan
memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs
arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa
datang. Besarnya ukuran Web membuat arsiparis web umumnya menggunakan
web crawlers untuk pengumpulan secara otomatis. Organisasi pengarsip web
terbesar yang menggunakan ancangan perangkak web ini adalah Internet
Archive yang berupaya memelihara arsip dari seluruh Web. Perpustakaan
nasional, arsip nasional, dan berbagai konsorsium organisasi lain juga
terlibat dalam upaya pengarsipan konten Web yang memiliki nilai penting
bagi mereka. Perangkat lunak dan layanan komersial juga tersedia bagi
organisasi yang ingin mengarsipkan konten web mereka sendiri untuk
berbagai keperluan.
Cara kerja web archiving
A. Remote Harvesting
Merupakan cara yang plaing umum dalam web archiving dengan
menggunkana teknik web crawlers yang secara otomatis melakukan proses
pengumpulan halaman web. Metode yang digunakan web crawler untuk
mengakses halaman web sama semeprti user mengakses halaman web
menggunakan wob browser. Contoh web crawler yang digunakan dalam web
archiving seperti :
- Heritrix
- HTTrack
- Wget
B. On-Demand
Ada banyak layanan yang dapat digunakan sebagai sumber archive web
"on-demand", menggunakan teknik web crawling. Contohnya seperti:
- Aleph Archives
- archive.is
- Archive-It
- Archivethe.net
- Compliance WatchDog by SiteQuest Technologies
- freezePAGE snapshots
- Hanzo Archives
- Iterasi
- Nextpoint
- Patrina
- PageFreezer
- Reed Archives
- Smarsh Web Archiving
- The Web Archiving Service
- webEchoFS
- WebCite
- Website-Archive.com
C. Database archiving
Databasa Archiving mengacu pada metode untuk menarsipkan konten
database-driven websites. Hal ini biasanya memerlukan ekstraksi konten
database ke standard schema, sering menggunakan XML. Setelah disimpan
dalam format standar, konten yang diarsipkan dari beberapa databse dapat
tersedia untuk diakses dengan menggunakan single access system. Motode
ini digunkanan seprti pada DeepArc dan Xinq masiing masing dikembangkan
oleh Bibliothèque nationale de France dan National Library of
Australia.
D. Transactional archiving
Transactional archiving merupakan event-driven yang mengumpulkan
transaksi yang berlangsung antara web server dan web browser. Hal ini
terutama digunakan untuk menjamin keaslian dari isi suatu website, pada
tanggal tertentu. Hal ini sangatlah penting untuk organisasi atau
perusahaan yang perlu mematuhi persyaratan hukum atau peraturan untuk
mengungkapkan dan mempertahankan informasi.
Sistem yang digunakan pada transactional archiving biasanya
beroperasi dengan memeriksa setiap permintaan HTTP dan respon dari web
server, menyaring setiap aktifitas untuk menghilangkan konten yang
duklikat dan secara permanen disimpan sebagai bitstreams. Sebuah sistem
transactional archiving membutuhkan instalasi perangkat lunak pada web
server, dan karena hal itu maka metode ini tidka dapat mengumpulkan
konten dari remote website.
sumber:
http://opensource.telkomspeedy.com/wiki/index.php/http://xn--nisarengga-9d1g.dazzle.co.id/2011/12/cara-memasang-rich-snippet-di-blogspot.html
http://communication4ourlife.blogspot.com/2012/10/bagan-periode-perkembangan-ilmu.html