Ticker

6/recent/ticker-posts

Algoritma Lempel Ziv Welch (LZW)

Kompresi data merupakan cabang ilmu komputer yang bersumber dari teori informasi. Teori informasi sendiri dipelopori oleh Claude Shannon sekitar tahun 1940-an. Teori ini mendefenisikan jumlah informasi di dalam pesan sebagai jumlah minimum bit yang dibutuhkan yang dikenal sebagai entropy. Teori ini juga memfokuskan pada berbagai metode tentang informasi termasuk tentang redundancy (informasi tak berguna) pada suatu pesan dimana semakin banyak redundancy maka semakin besar pula ukuran pesan, upaya mengurangi redundancy inilah yang akhirnya melahirkan subjek ilmu tentang kompresi data. 

Menurut David Salomon data kompresi adalah proses pengkonversian input data stream (sumber stream, atau data mentah asli) ke bentuk stream lain (outputstream, atau stream yang sudah terkompresi) yang memiliki ukuran yang lebih kecil. Stream adalah sebuah file ataupun buffer dalam memory. Sedangkan menurut Ida Mengyi Pu kompresi data adalah konteks dari ilmu komputer, ilmu (dan seni) yang menyajikan informasi ke dalam bentuk yang compact. Pada umumnya data kompresi terdiri dari pengambilan stream simbol dan mengubahnya ke dalam bentuk kode. Jika kompresi efektif, hasil kode stream akan lebih kecil daripada simbol asli. 

Namun pada dasarnya data kompresi bertujuan untuk mengubah ukuran data menjadi lebih kecil dari ukuran semula sehingga dapat menghemat media penyimpanan dan waktu untuk transmisi data, beberapa penggunaan kompresi datadapat dilihat seperti pada gambar-gambar yang diperoleh dari internet yang biasanyadalam format JPEG (Joint Photographic Experts Group atau GIF (GraphicalInterchange Format), modem yang sebagian besar menggunakan kompresi, HDTV(High Defenition Television) akan dikompresi menggunakan MPEG-2 (MovingPicture Experts Group 2), dan beberapa teks sistem yang secara otomatis dikompresi ketika file tersebut disimpan. 

Untuk melakukan kompresi data telah banyak algoritma yang telah dikembangkan. Namun, secara umum algoritma kompresi data dapat di bagi menjadidua kelompok besarberdasarkan dapat tidaknya rekontuksi ke data asli dilakukan.

Foto: Pixabay

Algoritma  LZW  merupakan  algoritma  kompresi data lossless yang ditemukan  oleh Terry Welch,  dimana  algoritma  ini  merupakan  peningkatan  dari  versi  sebelumnyayaitu  algoritmaLempel  Ziv  77 (LZ77)  dan Lempel  Ziv  78 (LZ78)  yang  dikembangkan  oleh  Abraham  Lempel dan Jacob Ziv pada tahun 1977 dan 1978. Kemudian algoritma LZW dipublikasikan oleh Terry Welch pada tahun 1984. 

Algoritma  LZW  adalah  algoritma  yang  bersifat  adaptif  dan  berbasis dictionary,  dimana selama   proses   kompresi   atau   dekompresi   berlangsung   algoritma   inimenggunakan   sebuah dictionary yang  dibentuk  selama  pembacaan input  stream.Dictionary dibentuk  dengan  tujuan untuk  menyimpan  karakter  atau  pola stringtertentu  yang  berguna  untuk  mengkodekan  simbol atau string pada  input  stream  yangmerujuk  pada index dalam dictionary.  Sebelum  proses kompresi  atau  dekompresidimulai,  sebuah dictionary akan  diinisialisasi  dengan  simbol  atau karakter-karakterdasar  penyusun  input stream,  sehingga  nilai  default  sebuah dictionary akan berisi 256 karakter ASCII dengan index 0-255. Sehingga pada awal pembacaan proses encoding maupun decoding, karakter atau kode pertama akan selalu ditemukan pada dictionary.

Posting Komentar

0 Komentar