Kamis, 24 Juni 2021

Web Archiving

 

Kesimpulan 

Web pengarsipan (Archiving) adalah proses pengumpulan bagian dari World Wide Web untuk memastikan informasi tersebut diawetkan dalam arsip bagi para peneliti di masa depan, serta berusaha untuk memelihara arsip dari seluruh Web. Salah satu cara Kerja web ini ialah Remote Harvesting, melakukan proses pengumpulan halaman web. Setelah disimpan dalam format standar, konten yang diarsipkan dapat tersedia untuk diakses menggunakan single access system. Transactional archiving, mengumpulkan transaksi yang berlangsung antar web server dan web browser. Sistem yang digunakan beroperasi dengan memeriksa setiap permintaan HTTP dan respon dari web server, menyaring setiap aktifitas untuk menghilangkan konten yang duplikat, secara permanen disimpan sebagai bitstreams.

Beberapa Metode Pengumpulan sebagai berikut : 
  • Panen Jarak Jauh untuk mengotomatisasi proses pengumpulan halaman web. Contoh web crawler yang digunakan untuk web pengarsipan meliputi : Heritrix, HTTrack, Wget, On-demand.
  • Arsip dapat digunakan sebagai bukti hukum (Smarsh Web Pengarsipan) dirancang untuk menangkap, memelihara dan menciptakan kembali pengalaman web seperti ada setiap saat dalam waktu untuk kewajiban kepatuhan e-discovery dan peraturan.
  • Database pengarsipan mengacu pada metode untuk pengarsipan konten mendasari database-driven website. 
Web arsip, mengandalkan web sebagai sarana utama mereka mengumpulkan, dipengaruhi oleh kesulitan merangkak web. Protokol pengecualian robot meminta crawler tidak dapat mengakses bagian dari sebuah situs web. Sebagian dari sebuah situs mungkin tersembunyi di dalam Web. Namun, penting untuk dicatat bahwa web arsip format asli yaitu, web dibrowser penuh, dengan link bekerja, media, hanya mungkin menggunakan teknologi crawler.

Sebuah alat untuk Kurasi Web oleh Konsorsium Pelestarian Internet International :
  • Situs resmi
  • Mengumpulkan aset Web NutchWAX
  • Pencarian Web arsip koleksi Wayback (Sumber Wayback Machine Terbuka)
  • Pencarian dan navigasi koleksi arsip Web menggunakan NutchWax Web Kurator Alat
  • Seleksi dan Pengelolaan Koleksi Web

Peralatan terbuka untuk memanipulasi Web Arsip :
  • WARC Tools untuk membuat, membaca, memanipulasi, web arsip pemrograman pencarian, mengindeks dan mencari teks lengkap dan metadata dalam web arsip.

    Mengenal tentang Definisi dan Cara Kerja Web Archiving

     

    Apa itu Web Archiving

    Proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang. Organisasi pengarsip web terbesar yang menggunakan ancangan perangkat web ini adalah Internet Archive yang berupaya memelihara arsip dari seluruh Web. Perangkat lunak dan layanan komersial juga tersedia bagi organisasi yang ingin mengarsipkan konten web mereka untuk berbagai keperluan. Arsiparis web umumnya mengumpulkan berbagai jenis konten web termasuk halaman HTML Web, style sheet, JavaScript, gambar, dan video. Juga menggunakan archive metadata untuk sumber daya yang dikumpulkan seperti access time, MIME type, dan content length. Metadata ini berguna dalam menjaga keaslian dan asal dari koleksi arsip.


    Cara Kerja Web Archiving

    • Remote Harvesting = Metode yang digunakan web crawler secara otomatis melakukan proses pengumpulan halaman web. Contohnya seperti : Heritrix, HTTrack, Wget.
    • On-Demand = Menggunakan teknik web crawling. Contohnya seperti : Aleph Archives, archive.is, Archive-It, Archivethe.net, Compliance WatchDog by SiteQuest Technologies, freezePAGE snapshots, Hanzo Archives, Iterasi, Nextpoint, Patrina, PageFreezer, Reed Archives, Smarsh Web Archiving, The Web Archiving Service, webEchoFS, WebCite, Website-Archive.com
    • Database Archiving = Metode arsip konten database-driven websites. Hal ini biasanya memerlukan ekstraksi konten database ke standard schema, sering menggunakan XML. Setelah disimpan dalam format standar, konten yang diarsipkan dapat tersedia untuk diakses menggunakan single access system. Motode ini digunakan pada DeepArc dan Xinq yang dikembangkan oleh Bibliothèque nationale de France dan National Library of Australia.
    • Transactional archiving = Mengumpulkan transaksi yang berlangsung antar web server dan web browser. Hal ini digunakan untuk menjamin keaslian dari isi suatu website. Sistem yang digunakan biasanya beroperasi dengan memeriksa setiap permintaan HTTP dan respon dari web server, menyaring setiap aktifitas untuk menghilangkan konten yang duplikat, secara permanen disimpan sebagai bitstreams. Sistem tersebut membutuhkan instalasi perangkat lunak pada web server, karena hal itu, metode ini tidak dapat mengumpulkan konten dari remote website. 

    Quantum Computing

    Sebutkan dan jelaskan Konsep Quantum Computation! Quantum Computation adalah paradigma komputasi yang menggunakan prinsip-prinsip fisika ku...