Kompresi data merupakan cabang ilmu komputer yang bersumber dari teori informasi. Teori informasi sendiri dipelopori oleh Claude Shannon sekitar tahun 1940-an. Teori ini mendefenisikan jumlah informasi di dalam pesan sebagai jumlah minimum bit yang dibutuhkan yang dikenal sebagai entropy. Teori ini juga memfokuskan pada berbagai metode tentang informasi termasuk tentang redundancy (informasi tak berguna) pada suatu pesan dimana semakin banyak redundancy maka semakin besar pula ukuran pesan, upaya mengurangi redundancy inilah yang akhirnya melahirkan subjek ilmu tentang kompresi data.
Menurut David Salomon data kompresi adalah proses pengkonversian input data stream (sumber stream, atau data mentah asli) ke bentuk stream lain (outputstream, atau stream yang sudah terkompresi) yang memiliki ukuran yang lebih kecil. Stream adalah sebuah file ataupun buffer dalam memory. Sedangkan menurut Ida Mengyi Pu kompresi data adalah konteks dari ilmu komputer, ilmu (dan seni) yang menyajikan informasi ke dalam bentuk yang compact. Pada umumnya data kompresi terdiri dari pengambilan stream simbol dan mengubahnya ke dalam bentuk kode. Jika kompresi efektif, hasil kode stream akan lebih kecil daripada simbol asli.
Namun pada dasarnya data kompresi bertujuan untuk mengubah ukuran data menjadi lebih kecil dari ukuran semula sehingga dapat menghemat media penyimpanan dan waktu untuk transmisi data, beberapa penggunaan kompresi datadapat dilihat seperti pada gambar-gambar yang diperoleh dari internet yang biasanyadalam format JPEG (Joint Photographic Experts Group atau GIF (GraphicalInterchange Format), modem yang sebagian besar menggunakan kompresi, HDTV(High Defenition Television) akan dikompresi menggunakan MPEG-2 (MovingPicture Experts Group 2), dan beberapa teks sistem yang secara otomatis dikompresi ketika file tersebut disimpan.
Untuk melakukan kompresi data telah banyak algoritma yang telah dikembangkan. Namun, secara umum algoritma kompresi data dapat di bagi menjadidua kelompok besarberdasarkan dapat tidaknya rekontuksi ke data asli dilakukan.
Foto: Pixabay |
Algoritma LZW merupakan algoritma kompresi data lossless yang ditemukan oleh Terry Welch, dimana algoritma ini merupakan peningkatan dari versi sebelumnyayaitu algoritmaLempel Ziv 77 (LZ77) dan Lempel Ziv 78 (LZ78) yang dikembangkan oleh Abraham Lempel dan Jacob Ziv pada tahun 1977 dan 1978. Kemudian algoritma LZW dipublikasikan oleh Terry Welch pada tahun 1984.
Algoritma LZW adalah algoritma yang bersifat adaptif dan berbasis dictionary, dimana selama proses kompresi atau dekompresi berlangsung algoritma inimenggunakan sebuah dictionary yang dibentuk selama pembacaan input stream.Dictionary dibentuk dengan tujuan untuk menyimpan karakter atau pola stringtertentu yang berguna untuk mengkodekan simbol atau string pada input stream yangmerujuk pada index dalam dictionary. Sebelum proses kompresi atau dekompresidimulai, sebuah dictionary akan diinisialisasi dengan simbol atau karakter-karakterdasar penyusun input stream, sehingga nilai default sebuah dictionary akan berisi 256 karakter ASCII dengan index 0-255. Sehingga pada awal pembacaan proses encoding maupun decoding, karakter atau kode pertama akan selalu ditemukan pada dictionary.
0 Komentar