Applications of Big Data in Economic Information Analysis and



Yüklə 0,66 Mb.
Pdf görüntüsü
səhifə1/3
tarix02.06.2023
ölçüsü0,66 Mb.
#123416
  1   2   3


Research Article
Applications of Big Data in Economic Information Analysis and
Decision-Making under the Background of Wireless
Communication Networks
Yaotian Deng, Han Zheng
, and Jingshi Yan
School of Accounting, Southwestern University of Finance and Economics, Chengdu, 611130 Sichuan, China
Correspondence should be addressed to Han Zheng; 295161662@qq.com
Received 3 November 2021; Revised 11 December 2021; Accepted 17 December 2021; Published 17 January 2022
Academic Editor: Shalli Rani
Copyright © 2022 Yaotian Deng et al. This is an open access article distributed under the Creative Commons Attribution License,
which permits unrestricted use, distribution, and reproduction in any medium, provided the original work is properly cited.
Owing to the growing volumes of mobile telecommunications customers, Internet websites, and digital services, there are more
and more big data styles and types around the world. With the help of big data technology with high semantic information,
this paper focuses on exploring the value and corresponding application of big data in
finance. By comparing with the existing
methods in terms of search speed and data volume, we can e
ffectively see the effectiveness and superiority of the algorithm
proposed in this paper. Furthermore, the algorithm proposed in this paper can provide some reference ideas for the follow-up-
related research work.
1. Introduction
Systems produce bandwidth in a variety of methods, result-
ing in an estimated 17.5 exabyte of data generated each
week. There exist numerous factors that contribute to data
’s
growing volume. Technological investigations, for example,
can produce a massive amount of data, for example, CERN
’s
Large Hadron Collider (LHC), which produces about 39
terabytes annually (Table 1). Having more than 1 billion
members on Facebook and Twitter, social media contributes
largely where individuals allocate an equivalent of 2.5 hours
per day liking, tweeting, publishing, and exchanging respec-
tive views. Without a question, leveraging interaction-
produced data could have an impact on the economics
field.
Unfortunately, utilizing data
’s potential is a difficult under-
taking. Storage facilities with large space and computational
abilities are constantly getting created to manage the data
boom, such as the National Security Agency (NSA) Utah
facility, which can keep 0.5 to 1.5 yottabyte of data and has
computing capacity exceeding 100 peta
flops [1].
Frameworks which operated on multiple computers
began to spring up as a result of the elevated demand to
broaden datasets to large datasets that surpassed operating
and/or memory functionalities. Around June 1986, Tera-
data Corporation utilized the foremost concurrent data-
base framework with just 1-terabyte memory volume in
the Kmart data center to preserve and make accessible
everything about their company information for interac-
tional inquiries and organizational evaluation (Table 2).
The University of Wisconsin
’s Gamma framework and
the University of Tokyo
’s GRACE framework are two such
illustrations.
The phrase
“big data” was coined with respect from the
theory below.
In Latin,
“data” means “fact” or “knowledge.” Big data
relates to the massive amounts of information that cannot
be acquired, handled, analyzed, or sorted into more action-
able knowledge. Big data comprises not only explicit knowl-
edge in the conventional manner but also implicit
resourceful information [2]. Big data is also described as ele-
vated-speed, and great-diversity data (Figure 1). Big data can
furthermore be de
fined by that quantity of information that
is surpassing conventional technology
’s ability to store, orga-
nize, and compute [3].
Hindawi
Wireless Communications and Mobile Computing
Volume 2022, Article ID 7084969, 7 pages
https://doi.org/10.1155/2022/7084969


Big data, in its utmost elementary meaning, references to a
signi
ficant expanse of information collected. Big data is a
phrase applied to de
fine massive database volumes which are
very huge that storing them in memory is almost impossible.
Such data can be collected, saved, shared, processed, and con-
solidated. With the amount of data increasing, the necessity to
update the technologies that are employed to analyze it also
raises simultaneously. This data should not be organized in
ordered spreadsheets as they were in the earlier times in order
to be examined by present tech. Big data can be found in a
variety of data types. They comprise a wide range of data
across a variety of sources. They can be organized, semiorga-
nized, or completely unorganized [4]. Big data is made up of
numerical data, image data, speech, text, and discourse, to
name a few categories. Radio frequency identi
fication (RFID),
global positioning system (GPS), point-of-sale (POS), call cen-
ters, and consumer blogs are all examples of these.
With present advanced analytical technology, we can
retrieve insights from any type of information. Analytics is
a combination of math and statistics applied to massive vol-
umes of datasets. Big data analysis denotes the use of statis-
tics and arithmetic to process enormous quantities of data.
With the absence of analytics, big data is just a bunch of
numbers. Over decades, the researchers have been compiling
a large amount of data (Figure 2). With the omission of big
data, analytics is just a set of arithmetic and statistical tech-
niques and methods. Such massive quantities of information
can be used to derive knowledge by companies. This is
achieved by nowadays huge processing capacity that is fur-
ther reasonably priced than earlier [1].
2. Characteristics of Big Data Are
Shown in Table 3
2.1. Volume. It alludes to databases
’ huge magnitude. It is
true that the Internet of Things (IoT) has played a role
towards the massive extraction of information (tally history,
customer data, charts and graphs,
files, and so on) via the
advancement and proliferation of linked mobile devices,
detectors, as well as other gadgets, in conjunction with
quickly changing information and communication technol-
ogies (ICTs) such as arti
ficial intelligence (AI). The amounts
of information production have brought other metrics for
information preservation, such as exabyte, zettabytes, and
yottabytes, since the information transfer rate exceeds
Moore
’s law [5].
2.2. Variety. It alludes to databases
’ huge magnitude. It is
true that the Internet of Things (IoT) has played a role
towards the massive extraction of information via the
advancement and proliferation of linked mobile devices,
detectors. The amounts of information production have
brought other metrics for information preservation [5]. It
exempli
fies the growing wide range of information generat-
ing origins and styles. Web 3.0 encourages the development
of Internet communication connections, resulting in the
production of a variety of information kinds. Some of the
most important origins of big data are relatively new [6].
2.3. Variability. It is frequently mistaken with diversity,
while variability is linked to fast shifts in interpretation. Tak-
ing an example, phrases in a script would contain varied
interpretations depending on the setting of the content;
hence, for reliable viewpoint assessment, programs must
determine the interpretation (impression) of a phrase while
considering the entire setting in mind.
2.4. Velocity. The rapidity with which information is gener-
ated distinguishes big data. Information from linked gadgets
and the online world is emerging instantaneously in busi-
nesses. That velocity is critical for businesses to take certain
steps which allow them to become increasingly nimble and
acquire a competitiveness bene
fit over their competing
Table 1: Company investments on big data.
Year
Enterprise software spending for speci
fied
submarkets
Forecast: social media revenue, worldwide,
2011-2016
Big data IT services
spending
Total
2011
2,565
76
24,407
27,047
2012
2,918
1,384
23,476
27,778
2013
3,516
1,812
28,578
33,906
2014
4,240
2,827
37,404
44,472
2015
5,207
3,615
36,189
45,010
2016
6,461
4,411
43,713
54,586
Note: accuracy is to the nearest $1 million and is derived from percentage-based algorithms. Research data does not provide total accuracy to the nearest $1
million. Some rounding errors apply.
Table 2: Big data model.
Ad hoc analytics
Relational databases
Big data sets
Data volume
Megabytes-gigabytes
Terabytes-petabytes
Data velocity
Near-real-time updates (seconds)
Real-time updates (milliseconds)
Data variety
Structured data
Structured and unstructured data
Data model
10s of tables/variables
100s-1000s of tables/variables
2
Wireless Communications and Mobile Computing


companies. Regardless of the reality that certain businesses
previously used big data (click-stream data) to provide
acquisition suggestions to their clients, today
’s businesses
can evaluate and comprehend data in real-time using big-
data analytics.
2.5. Veracity. The term
“data veracity” relates to the exact-
ness and consistency of data. Because the information gath-
ering contains data which is rarely safe and correct, data
veracity relates to the quantity of information unpredict-
ability and dependability associated with a particular sort
of data.
2.6. Visualization. The discipline of visualizing data and
information is known as data visualization. It displays pri-
mary and secondary data sources in a diagrammatic man-
ner, demonstrating structures, dynamics, abnormalities,
consistency, and variety in methods which words as well as
figures cannot (Table 4).
Improved
demand planning
Accurate planning
and scheduling
Real-time
supply chain execution
Enhanced
order optimization 
Improved
responsiveness
Figure 2: Some benefits of big data.
Table 3: Characteristics of big data.
No. of Vs
References
Dimensions (characteristics)
Volume
Velocity
Variety
Veracity
Value
Variability
Volatility
Validity
3Vs
[33-39]



4Vs
[11, 40-42]




[6, 29, 43-45]




5Vs
[3,22, 26, 46, 47]





6Vs
[30, 48, 49]






7Vs
[31, 32]







Transferring raw data
1
Transferring inferred knowledge
2
Network
Generating
raw data
Big data cluster
Storage &
Processing
Decision making
Evaluating best
configuration
Feedback configuration
3
Figure 1: Big data network.
3
Wireless Communications and Mobile Computing


3. Model
An example of a model that can be used is the industrial eco-
nomic information model. This model uses the following
formula in its creation process.

Yüklə 0,66 Mb.

Dostları ilə paylaş:
  1   2   3




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©azkurs.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin