O‘ZBEKISTON RESPUBLIKASI AXBOROT TEXNOLOGIYALARI VA KOMMUNIKATSIYALARINI RIVOJLANTIRISH VAZIRLIGI MUHAMMAD AL-XORAZMIY NOMIDAGI TOSHKENT AXBOROT TEXNOLOGIYALARI UNIVERSITETI FARG’ONA FILIALI “AXBOROT TEXNOLOGIYALARI” KAFEDRASI “MA’LUMOTLAR KOMUNIKATSIYASI” FANIDAN MUSTAQIL ISH.
Topshirdi: D.A.Abdurashidov Qabul qildi: O.I.Ergashev.
Hadoop - bu yuzlab yoki minglab tugunlardan iborat klasterlarda ishlaydigan taqsimlangan dasturlarni ishlab chiqish va bajarish uchun bepul qayta taqsimlanadigan yordamchi dasturlar, kutubxonalar va ramkalar to'plami. Big Data-ni saqlash va qayta ishlashning bu asosiy texnologiyasi Apache Software Foundation-ning yuqori darajali loyihasidir.
Hadup texnologiyasi deyarli 15 yil oldin paydo bo'lgan va doimo rivojlanib bormoqda. Keyin uning tarixining asosiy bosqichlari ko'rsatiladi:
2005-Google xodimlari Jeffrey Dean va Sanjay Gemawatning MapReduce hisoblash konsepsiyasi haqida e'lon qilinishi Spodvigl Doug Kattingni loyihani boshlash uchun. Java-da bepul dasturiy qidiruv tizimi uchun tarqatilgan hisoblash dasturiy infratuzilmasini yaratish uchun Dag Catting va Mayk Cafarella tomonidan ishlab chiqilgan. Uning nomi asoschisi o'yinchoq filining sharafiga loyiha edi. Shuning uchun hadup norasmiy ravishda "temir fil" deb ataladi va uni bu hayvon shaklida tasvirlaydi.
2006-Yahoo kompaniyasi Kattingni tarqatilgan hisoblash infratuzilmasini rivojlantirish bo'yicha maxsus guruhni boshqarishga taklif qildi, buning natijasida Hadoop alohida loyihaga aylandi.
2008-Yahoo Apache Software Foundation loyihasi tizimining yuqori darajali loyihasi bo'lgan Hadoop bilan ishlaydigan 10 ming protsessor yadrosi uchun Klaster qidiruv vositasini ishga tushirdi. Ma'lumotlarni saralashda jahon rekordini qo'lga kiritdi: 209 soniyada 910 tugunlarining klasteri 1 Tbayt ma'lumotni qayta ishladi. Shundan so'ng texnologiya amalga oshirilmoqda Last.fm "Facebook", "New York Times", "Amazon EC2" bulut xizmatlari.
2010 - Google korporatsiyasi Apache Software Foundation-ga MapReduce texnologiyasidan foydalanish huquqini berdi. Hadoop asosiy katta ma'lumotlarni qayta ishlash va saqlash texnologiyasi (Big Data) sifatida joylashtirilgan. Hadoop ekotizimi shakllana boshladi: Avro, HBase, Hive, Pig, Zookeeper mahsulotlari paydo bo'ldi, ma'lumotlarni boshqarish va tarqatilgan ilovalarni boshqarish operatsiyalarini osonlashtiradi, shuningdek, axborotni tahlil qilish.2011 – tarqalgan ma'lumotlarni saqlash va qayta ishlash uchun Universal yondashuv ("Shveytsariya pichoq XXI asr") uchun media guruhi Guardian yillik innovatsion mukofot olish .2013-Hadoop 2.0 versiyasida YARN modulining ko'rinishi MapReduce paradigmasini sezilarli darajada kengaytirib, tarqatilgan tizimlarning ishonchliligi va o'lchamlarini oshiradi.