Kekuatan Hadoop

Apache Hadoop adalah proyek perangkat lunak open source berdasarkan JAVA. Pada dasarnya ini adalah kerangka kerja yang digunakan untuk menjalankan aplikasi pada perangkat keras berkerumun besar (server). Ini dirancang untuk meningkatkan dari satu server ke ribuan mesin, dengan tingkat toleransi kesalahan yang sangat tinggi. Daripada mengandalkan perangkat keras kelas atas, keandalan klaster ini berasal dari kemampuan perangkat lunak untuk mendeteksi dan menangani kegagalannya sendiri.

Kredit untuk menciptakan Hadoop pergi ke Doug Cutting dan Michael J. Cafarella. Doug seorang karyawan Yahoo menemukan itu tepat untuk mengganti namanya setelah gajah mainan anaknya "Hadoop". Awalnya dikembangkan untuk mendukung distribusi untuk proyek mesin pencari Nutch untuk memilah sejumlah besar indeks.

Dalam istilah awam, Hadoop adalah cara di mana aplikasi dapat menangani sejumlah besar data menggunakan sejumlah besar server. Pertama Google membuat Map-reduce untuk bekerja pada pengindeksan data besar dan kemudian Yahoo! menciptakan Hadoop untuk mengimplementasikan Fungsi Map Reduce untuk penggunaannya sendiri.

Peta Mengurangi : The Task Tracker- Kerangka kerja yang memahami dan menugaskan pekerjaan ke simpul dalam suatu kelompok. Aplikasi memiliki divisi kecil kerja, dan setiap pekerjaan dapat ditugaskan pada node yang berbeda dalam sebuah cluster. Ini dirancang sedemikian rupa sehingga setiap kegagalan dapat secara otomatis diurus oleh kerangka itu sendiri.

HDFS – Hadoop Distributed File System. Ini adalah sistem file skala besar yang membentang semua node dalam cluster Hadoop untuk penyimpanan data. Ini menghubungkan bersama-sama sistem file pada banyak node lokal untuk membuat mereka menjadi satu sistem file besar. HDFS asses node akan gagal, sehingga mencapai keandalan dengan mereplikasi data di beberapa node.

Big Data menjadi pembicaraan dunia IT modern, Hadoop menunjukkan jalan untuk memanfaatkan data besar. Itu membuat analitik lebih mudah mengingat terabyte Data. Kerangka Hadoop sudah memiliki beberapa pengguna besar untuk membanggakan seperti IBM, Google, Yahoo !, Facebook, Amazon, Foursquare, EBay dll. Untuk aplikasi besar. Infact Facebook mengklaim memiliki Hadoop Cluster terbesar 21PB. Tujuan komersial Hadoop termasuk Analisis Data, Perayapan Web, Pemrosesan teks dan pemrosesan gambar.

Sebagian besar data dunia tidak digunakan, dan sebagian besar bisnis bahkan tidak mencoba menggunakan data ini untuk keuntungan mereka. Bayangkan jika Anda mampu menyimpan semua data yang dihasilkan oleh bisnis Anda dan jika Anda memiliki cara untuk menganalisis data tersebut. Hadoop akan membawa kekuatan ini ke suatu perusahaan.