Fake news and Social Media


Bubbles, bots, and algorithms



Yüklə 0,76 Mb.
Pdf görüntüsü
səhifə8/23
tarix19.06.2023
ölçüsü0,76 Mb.
#132812
1   ...   4   5   6   7   8   9   10   11   ...   23
FULLTEXT01

3.3. Bubbles, bots, and algorithms
Over recent years, fake news and the effect of the social media filter bubble have
become increasingly important both in the academic and general discussion. This has
been exacerbated by the perceived role of fake news and selective news filtering in
the recent United State (US) presidential election and the British-European Union
(EU) membership referendum. According to a definition provided by Technopedia, a
“filter bubble is the intellectual isolation that can occur when websites make use of
algorithms to selectively assume the information a user would want to see and then
give information to the user according to this assumption” (Technopedia, 2018).
Pariser (2011), in his well-known book “The filter bubble: What the Internet is
hiding from you”, describes that companies like Google or Facebook make
assumptions based on the information related to the user – such as browsing history,
location or form click behavior – and with the use of algorithms they construct a
filter bubble where only selective information is circulated. A filter bubble, therefore,
can cause users to get significantly less contact with contradicting viewpoints,
causing them to become intellectually isolated. Some theorists claim that the
algorithmic personalization that filters our online experiences effectively places us in
an echo chamber of our own beliefs and is the stronger cause of polarization (Pariser,
2011; Rader and Grey, 2015) and a critical factor in the growing importance of fake
news. As social media plays an increasing role in the consumption of news and
information, the effects of ideological polarization in information consumption
15


become arguably more apparent. In recent years, social networks have displayed
symptoms of ideological polarization (Dylko et al., 2017; Stroud, 2010) and the
formation of the so-called filter bubbles associated with the emerging phenomenon
of fake news. Selective exposure behavior, confirmation bias and availability bias
that make us more likely to interact with content which confirms our pre-existing
views are the more likely trigger of ideological polarization, both offline and online
(Frey, 1986; Klapper, 1957; Stroud, 2008).
Despite the fact that the term ‘filter bubble’ has been popularized by Pariser (2011),
who illustrated the phenomenon of polarization on social media platforms, it is not a
new phenomenon. Already in 1996, Negroponte predicted a world where information
technologies become increasingly customizable and he “envisioned a digital life,
where newspapers tailor content to your preferences and media consumption
becomes a highly personalized experience” (Gil de Zuniga and Diehl, 2017, p. 3). He
based his vision on the fact that even in the pre-digital era audiences seemed to prefer
reading specific media outlets and gathering information from sources which were
close, or at least closer, to their beliefs. They also tended to be influenced by their
own network of friends and other individuals, and in a way, they lived inside
bubbles. Interestingly, Negroponte’s vision has become reality in our news feeds and
overall online experiences both on social media and the Internet, but it appears that
many individuals do not consider the implications of their highly customized online
experience. To be more specific, one study investigating users’ beliefs around
Facebook News Feed found that most users are not particularly aware of the
algorithm behind it (Rander and Gray, 2015, p. 177-178). This finding illustrates the
fact that when users interact with content on social media it is more likely for them
not to be aware of the fact that this content is part of their filter-bubbles and,
therefore, that other information is also available online but is not part of their
bubbles since bots and algorithms have filtered it. As Burkhardt (2017) underlines,
the manipulation of computer code for social media sites allows fake news to
proliferate and affects what people believe, often without ever having been read
beyond the headline or caption. This conclusion clearly demonstrates the significant
role bots and algorithms, as well as the ‘filter bubble’ effect, play on fake news
production and distribution on social media, and therefore it is crucial for the users to
16


be aware of the role bots and algorithms play in order to be able to counter the spread
of misleading information online.

Yüklə 0,76 Mb.

Dostları ilə paylaş:
1   ...   4   5   6   7   8   9   10   11   ...   23




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©azkurs.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin