hadoop jar /home/codegyani/wordcountdemo.jar com.javatpoint.WC_Runner
/test/data.txt /r_output
ushbu buyruq yoramida ishga tushiramiz.
O‟tkazilgan tajribalar najilariga to‟xtaladigan bo‟lsak, natijalar absolyut bir hil
chiqqanligini ko‟rishimiz mumkin. Ya‟ni ikkala metod bo‟yicha sanalgan so‟zlarning
soni 100% bir hil ekanligin ko‟rdik. Olingan natijani quyidagi diagrammada
ko‟rsatilgan.
Academic Research in Educational Sciences
Volume 4 | Issue 3 | 2023
ISSN: 2181-1385
ISI: 0,967 | Cite-Factor: 0,89 | SIS: 1,9 | ASI: 1,3 | SJIF: 5,771 | UIF: 6,1
528
March, 2023
https://t.me/ares_uz Multidisciplinary Scientific Journal
1-diagramma. Katta hajmli ma’lumotdagi so’zlarning chastotaviy tahlili
So‟zlarning chastotaviy tahlilidan tashqari katta hajmli ma‟lumotni qayta
ishlash uchun sarflangan vaqt ham biz katt ahamiyatga ega. Chunki asosiy
maqsadimiz qayta ishlash jarayoni tezlashtirishdan iborat. Quyidagi rasmda esa Java
Corega asoslangan dasturda, biz tanlagan katta hajmli ma‟lumotni qayta ishlash
uchun sarflangan vaqtni ko‟rishimiz mumkin.
4-rasm. Java Corega asoslangan qayta ishlash uchun sarflangan vaqt
Quyidagi rasmda esa Hadoop yordamida parallel hisoblashlarga asoslangan
qayta ishlash uchun sarflangan vaqt va boshqa resurslarni ko‟rishimiz mumkin.
5-rasm. Hadoop orqali parallel qayta ishlash uchun sarflangan vaqt.
XULOSA
Katta hajmli ma‟lumotni parallel hisoblashlar yordamida qayta ishlash
mavzusiga bag‟ishlangan ushbu maqolani yozish jarayonida biz quyidagilarni amalga
oshirdik:
Katta hajmli ma‟lumotlar va ularni qayta ishlashga doir
adabiyotlarni tahlil qildik
0
500
1000
1500
2000
|