This is default featured slide 1 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 2 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 3 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 4 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 5 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

Senin, 06 Mei 2013

Web Archiving


Nama Kelompok :
1. Achmad Yani  (50411091)
2. Muhammad Yusuf  (55411009)
3. Prastika Dedyana  (55411559)
4. Sherly Maria Pangaila  (56411737)
5. Yuan Fachrul Amanda (57411593)

Pada postingan kali ini, saya akan membahas tentang apa itu web archiving dan bagaimana cara kerja dari web archiving tersebut.

Web Archiving adalah proses pengumpulan bagian dari World Wide Web untuk memastikan informasi yang diawetkan dalam arsipbagi para peneliti di masa depan, sejarawan, dan masyarakat umum. Arsiparis web biasanya menggunakan web crawler otomatis untuk menangkap karena ukuran besar dan jumlah informasi di Web. Web terbesar pengarsipan organisasi berdasarkan pendekatan merangkak massal adalah Internet Archive yang berusaha untuk memelihara arsip dari seluruh Web. perpustakaan Nasional , arsip nasional dan berbagai konsorsium organisasi juga terlibat dalam pengarsipan konten Web budaya penting. Web komersial pengarsipan perangkat lunak dan layanan juga tersedia untuk organisasi yang perlu arsip konten web mereka sendiri untuk warisan perusahaan, peraturan, atau tujuan hukum.

contoh web archiving yaitu Heritrix,  HTTrack, Wget

Cara kerja web archiving

1.    Menemukan Informasi Website lewat crawling web
Bagaimana cara kerja web crawling Google ? Google memiliki software khusus untuk proses perayapan website/blog yang bisa diakses secara umum. Secara sederhana cara kerja web crawler Google menggunakan aplikasi yang disebut Googlebot. 
Crawler Googlebot akan merayapi setiap halaman website/blog seperti ketika sobat belajar online membuka link lewat browser, kemudian mengikuti link setiap halaman web dan membawa data dari website/blog tersebut ke server Google.
Proses crawling web oleh googlebot dimulai dari crawling alamat utama web (domain), kemudian ke sitemap (peta situs) yang dibuat oleh pemilik website.
adanya sitemap website akan memudahkan google bot google dalam proses crawling web/blog tersebut.
Pada akhirnya program google bot akan menentukan situs mana yang ramai pengunjung dan selalu diupdate, berapa banyak konten yang ada, untuk menentukan posisinya.
Google tidak menerima bayaran dalam memposisikan website. Website/blog yang menurut mesin pencari google bagus maka akan berada di posisi pertama hasil pencarian Google. Mengapa Google tidak mau menerima bayaran dalam merayapi dan mengindeks website ? Hal ini tentu saja berkaitan dengan manfaat untuk pengguna yang mencari informasi lewat mesin pencari google, karena itu merupakan bisnis utama mesin pencari Google.

2.    Mengorganisasi informasi hasil proses crawling web
Setelah proses crawling web, maka mesin pencari google kemudian memasukkannya dalam daftar indeks Google. Gambaran internet itu ibarat perpustakaan dengan miliaran buku, namun sayangnya tidak mempunyai katalog khusus dan pengarsipan utama. Dari situ, maka google mengumpulkan alamat dan isi halaman-halaman web yang dicrawl oleh google bot kemudian membuat indeks. Dengan begitu mesin pencari google tahu persis bagaimana Google melihat halaman yang bersangkutan.
Gambaran bagaimana google membuat indeks dari miliaran web yang ada di dunia, coba sobat belajar online buka indeks buku yang ada di bagian belakang. Indeks Google juga berisi tentang informasi kata-kata dan lokasi kata tersebut.
Dengan perkembangan web generasi kedua, ditambah dengan html 5 yang memberikan kesempatan kepada developer web untuk membuat web dinamis semakin banyak jenis konten yang harus diindeks google, dari teks, gambar dan video. Google pun juga menyempurnakan pengindekan konten-konten yang ada di internet untuk memahami apa yang diinginkan oleh pencari informasi lewat mesin pencari Google.

3.    Pengaturan crawling pada pemilik website/blog
Walaupun Google dapat merayapi setiap halaman web, namun mesin pencari juga memberikan kebebasan kepada pemilik situs yang tidak ingin websitenya dirambah dan diindeks mesin pencari Google.
Untuk memilih dan memberitahu google bot agar tidak merayapi dan mengindeks halaman sensitif yang berbahaya apabila diakses oleh umum, maka sobat dapat menggunakan file robot.txt. Sobat dapat mengakses Google Webmasters Tool untuk mendapatkan file robots.txt dan mengisi bagian mana yang tidak boleh dirayapi dan diindeks dari website/blog sobat oleh Google crawler.

Sumber : 

Sabtu, 04 Mei 2013

Search Engine


Nama Kelompok :
1. Achmad Yani  (50411091)
2. Muhammad Yusuf  (55411009)
3. Prastika Dedyana  (55411559)
4. Sherly Maria Pangaila  (56411737)
5. Yuan Fachrul Amanda (57411593)


Pada postingan kali ini saya dan kelompok saya akan membahas tentang search engine. Search Engine adalah sebuah istilah dalam dunia internet yang diartikan sebagai alat pencari kumpulan informasi yang berkaitan dengan kata kunci ( keyword ) atau frase yang kita input ke dalam search box yang disediakan olehnya. Search engine menggunakan 'robot' untuk menjelajah dunia internet dan meng-indeks jutaan situs berdasarkan keyword, lalu menyimpannya ke dalam database. Dia akan melakukan scan terhadap databasenya, ketika seorang user mengetikkan frase atau keyword pada search box. Hasilnya berupa tampilan daftar situs yang berhubungan dengan keyword yang tadi diketikkan, atau sering disebut Search Engine Result Pages (SERP).

Disini saya akan membahas tentang search engine terpopuler  saat ini diantaranya :

1. Yahoo!
Salah satu portal terbesar di Internet, selain MSN dan juga salah satu mesin pencari tertua. Halaman utamanya sendiri tidak terlalu ramah untuk pencarian, tetapi Yahoo! menyediakan search.yahoo.com untuk itu. Yahoo! menggunakan jasa Google untuk mencari informasi di web, ditambah dengan informasi dari databasenya sendiri. Kelebihan Yahoo! adalah direktorinya. Yahoo! juga menyediakan pencarian yellow pages dan peta, yang masih terbatas pada Amerika Serikat. Yahoo juga menyediakan pencarian gambar.  

Fitur-fitur pada Yahoo! diantaranya :
  • Tampilan awal pada yahoo bagus
  • Memiliki berbagai macam fitur yang lain sperti yahoo messenger, mail, game, belanja, dan lain-lain
  • Salah web yang menyediakan layanan fasilitas gratis, dan lain-lain
2. Google
Selain pencarian web, Google juga menyediakan jasa pencarian gambar, pencarian ? berita serta pencarian pada arsip USENET (newsgroup), serta direktori, seperti Yahoo! Kelemahannya terletak pada tidak tersedianya pencarian file, video, dan audio. Keunggulan Google terutama adalah pada pencarian teks, terutama dari algoritma PageRank, database-nya yang besar serta banyaknya jenis file yang diindeksnya.

Fitur-fitur pada Google diantaranya :
  • Tampilan yang sederhana
  • Kecepatan dan kemudahan dalam mencari
  • Lebih canggih dengan fitur yang dimilikinya
  • Dapat mencari segala macam informasi
  • Satu-satunya mesin pencari yang memiliki cache
3. MSN
Mesin pencari dari Microsoft Network ini menawarkan pencarian baik dengan kata kunci maupun dari direktori. Pemakai  Internet Explorer kemungkinan besar sudah pernah menggunakan mesin pencari ini. Situs Searchenginewatch mencatat MSN  sebagai mesin pencari ketiga populer setelah Google dan Yahoo! Tak ada pencarian image, atau news. Menyediakan pencarian  peta, yellow pages, white pages, pencarian pekerjaan, rumah.
Fitur-fitur pada MSN diantaranya :
  • Tampilan awalnya ramai
  • Mampu mencari video, musik, gambar, dan beragam format file spesial
4. Alltheweb
Keunggulan Alltheweb adalah pencarian file pada FTP Server. Tidak seperti web, FTP adalah teknologi internet yang ditujukan untuk menyimpan dan mendistribusikan file, biasanya program, audio atau video. Web sebenarnya lebih ditujukan untuk teks. Sejauh ini, hanya AllTheWeb yang menyediakan jasa pencarian file.  

Fitur-fitur pada Alltheweb diantaranya :
  • Tampilan yang sederhana seperti google
  • Kemudahan dalam mencari
  • Alltheweb langsung menyediakan fungsi untuk pencarian berita, musik, gambar, dan video;
Sumber :


Analisis Web


Nama Kelompok :
1. Achmad Yani  (50411091)
2. Muhammad Yusuf  (55411009)
3. Prastika Dedyana  (55411559)
4. Sherly Maria Pangaila  (56411737)
5. Yuan Fachrul Amanda (57411593)

Pengukuran Website



Banyak orang merasa puas dan berhenti berusaha setelah mereka memiliki website. Padahal, proses maintenance serta usaha untuk mengetahui efektivitas website yang telah dibuat jauh lebih penting! Mengetahui efektivitas website jadi elemen yang sangat penting untuk mengevaluasi performance website. Bahkan untuk mengetahui kekuatan dan kelemahan website, yang pada akhirnya berguna untuk pengembangan website.
Sudah banyak alat yang digunakan untuk pengukuran website yang beredar, salah satunya adalah Google Analytics (GA).
Google Analytics mengukur performa website dari mulai basic traffic seperti visit, page view, pages/visit, bounce rate, dan time on site hingga kriteria yang lebih lanjut seperti e commerce, advance segment, loyalty dan campaign tracking. Yang paling menarik, semua fitur ini disediakan secara gratis oleh Google Analytics.
Bergabung dengan Google Analytics juga relatif mudah. Anda tinggal mendaftarkanakun Google Anda pada Google Analytics kemudian mendaftarkan website yang ingin Anda ketahui performanya.

  • Tools Analisis Web
Di dalam kegiatan mendesain sebuah blog/website, selain dilihat dari sisi desainnya, juga harus memperhatikan aspek lainnya seperti berapa lama website/blog anda diload. Sangat banyak sekali di dunia maya/internet yang memiliki desain sangat bagus pada website atau blognya tetapi terkadang melupakan aspek sperti yang saya sebutkan tadi dan akhirnya para pembaca pun merasa bosan karena harus menunggu lama untuk meload sampai selesai website atau blog tersebut.

  • 8 Tools analisis web
Ada 8 Tool Analisa Web yang dapat membantu untuk analisis website dengan memberikan informasi detail dari segi “accessibility” dan desain. Semua tool online dibawah ini, gratis dan sangat mudah untuk digunakan. Tools tersebut terdiri dari :

  1. Colour Blindness Simulator
dapat membantu anda untuk memeriksa bagaimana aspek gambar dan pewarnaan (color) dari website/blog. Anda juga dapat dengan cepat upload file gambar (JPEG) dengan resolusi 1000x1000px  dan analisa aspek pewarnaan halaman website anda.

  1. Juicy Studios Image Analyzer
Dengan tool online ini, kita dapat menganalisa masalah setiap gambar yang ada pada halaman website. Tool ini juga, dapat menginformasikan detail informasi widthheightalt, dan longdesc, makanya tool website - Image Analyzer merupakan salah satu tool analisa website terbaik.

  1. Firefox Accessibility Extension
Jika anda termasuk pengguna web browser Firefox, maka Add-ons Friefox ini sangat penting karena dengan Add-ons ini, anda dapat aktifkan setiap element desain dari halaman website. Anda dapat dengan cepat buat daftar gambar dan element yang lain. Add-ons ini juga disertakan dengan standar validasi “W3C HTML Validator” .

  1. Test and Improve Readability
Tool Online gratis dengan fitur untuk testing dan meningkatkan konten website anda.

5.     LinkPatch
“Broken link”  membuat halaman webstie.blog dan yang lain menjadi tidak dapat diakses, hal ini adalah yang terpenting selain faktor SEO, tapi dengan tool seperti LinkPatch, untuk cek “broken link” dari semua URL yang anda inginkan. Dengan LinkPatch, anda dapat install kode tracking  dalam hitungan detik dengan fitur monitoring.

  1. WAVE 
merupakan tool interaktif yang menunjukkan tingkat kunjungan dari website dengan 3 cara yang berbeda: “Errors, Features, and Alerts”, “Structure/Order”, dan Text-Only”.

  1. AccessColor
Tes AccessColor kontras warna dan “color brightness” antara bagian depan dan belakang dari semua element DOM. AccessColor akan menemukan kombinasi warna yang relevan dengan dokumen HTML dan CSS.

  1. aDesigner 
adalah simulator yang membantu desainer untuk memastikan konten dan aplikasinya diakses. aDesigner juga membantu user untuk cek aksesbility dokumen ODF dan Flash.

  • Kenapa web perlu dianalisa
Untuk mengetahui apa saja yang terjadi didalamnya, berapa banyak yg mengunjungi, berapa halaman yg dilihat dari pengunjung, dan berasal darimana pengunjung yang mengunjungi? search engine, referall ataukah social media.

  • Bagaimana cara menganalisa web
1. Traffic
Kenapa traffic termasuk dalam analisis website? Jawabannya cukup simple. Sebuah web kalau pengunjungnya banyak dan lama berkunjungnya, bisa di artikan website tersebut bermanfaat bagi pencari informasi. Masih tidak percaya ? Buktinya google akan memberikan iklan/adsense nya kalau website tersebut telah banyak dikunjungi orang (Cara halalnya).

2. Kecepatan Akses
Menunggu? Membosankan. Itu kata pertama yang terlintas di pikiran. Berarti kita sama. Kenapa kecepatan akses web, karena website yang aksesnya lama akan membuat pengunjung untuk batal berkunjung ke website tersebut, ini dampak negatifnya. Tp dampak negatif ini juga bermanfaat bagi pemilik website yang notabene menacari traffic untuk layanan komersiilnya. Karena akan meningkatkan traffic website tersebut. Alhasil kemungkinan PR meningkat juga ada dan tawaran bisnis mungkin juga mengalir walaupun disebut traffic fake (cara bodoh).

3. Security member
Untuk hal ini perlu penanganan khusus, misalnya saja untuk keperluan tertentu, website dengan content khusus sebaiknya menggunakan fasilitas member karena untuk menjaga bahwa file tersebut tidak jatuh pada orang yang tidak di inginkan. Contohnya blogspot juga memberikan layanan ini untuk content dewasa.

4. IP Tracker
Kalau fasilitas ini bisa dibilang pelacak secara auto. Karena setiap kali kita berkunjung ke website, IP address komputer kita akan dicatat oleh system website tersebut. Tidak hanya IP saja yang bisa di ambil. Hal ini untuk keperluan review bagi pemilik website. Contohnya: Website saya sudah ada layanan IP tracker ini. Jadi setiap teman-teman buka post atau buka apa saja, secara otomatis nama komputer, IP, hal yang dilakukan, tercatat dalam sistem saya. Jadi saya bisa tahu siapa saja teman sekelas saya yang buka website saya dari Nama Komputer saja.

5. Spam security
Ini buat mereka yang suka bermain spam/sampah.  Untuk menghindari hal ini, alngakh baiknya sebuah website mempunyai system auto block spam. Jadi kemungkinan hal yang tidak diinginkan bisa diminimalkan.

6. Captcha Security
System ini adalah salah satu cara untuk block spam. Systemnya, setiap pengunjung akan diminta untuk mengetik ulang teks yang berbentuk gambar atau tulisan acak sebelum submit komentar.

7. Layout dan Graphic
Hal ini sangat diperlukan karena website yang memiliki layout rapid an graphic yang indah, akan membuat pengunjung betah belama-lama untuk berkunjung. Dengan beberapa tambahan graphic flash, gambar, video, akan mempercantik dan memperjelas informasi yang ada.
  • Parameter yang digunakan untuk menanalisa atau mengukur
1. Kuantitas incoming links
2. Kualitas incoming links
3. Jumlah halaman terindeks
4. Anchor Text
5. Website struktur design
6. Optimasi pihak ke 3




sumber :