Perkembangan teknologi informasi dalam dekade saat ini begitu pesat, hal tersebut dapat dilihat dari lalu-lintas informasi antar node melalui teknologi informasi sehingga menghasilkan data yang sangat besar. Dengan sebegitu besar jumlah data yang ada, sangat tidak mungkin melakukan pemrosesan secara konvensional. Dengan algoritma yang diperkenalkan oleh google, yaitu algoritma map/reduce diharapkan permasalahan pemrosesan data besar tersebut terselesaikan. Algoritma map/reduce dibangun berdasarkan komponen map dan reduce yang berasal dari bahasa pemrograman fungsional. Algoritma map/reduce yang dibangun pada tugas akhir ini menggunakan bahasa fungsional murni yaitu bahasa pemrograman Haskell. Beberapa kerangka pengujian sistem yang dibangun menekankan kepada beberapa parameter pengaruh proses paralelisasi yang terjadi. Dari hasil implementasi sistem yang dibangun didapat kesimpulan bahwa sistem mapreduce yang dibangun dalam lingkungan Haskell untuk penanganan file berukuran sangat besar masih bermasalah dengan pengaturan garbage collector. Akan tetapi untuk file yang berukuran kecil yaitu kurang dari ukuran memori utama, sistem mapreduce yang dibangun menghasilkan performansi yang sangat bagus. Konfigurasi optimasi juga berperang penting dalam meminimalkan waktu eksekusi. Sistem mapreduce yang dibangun memiliki performansi yang lebih bagus dibanding dengan program imperative yaitu waktu eksekusi yang lebih cepat. Data skala besar, Chunk data, Algoritma Map/Reduce, Pemrograman fungsional, Paralelisasi, Garbage Collector, Haskell.