REVIEW PAPER
CONTENT GENERATED BY ARTIFICIAL INTELLIGENCE IN THE CONTEXT OF PROTECTION AGAINST DISINFORMATION
More details
Hide details
1
RCS Engineering Sp. z o.o., Polska
A - Research concept and design; B - Collection and/or assembly of data; C - Data analysis and interpretation; D - Writing the article; E - Critical revision of the article; F - Final approval of article
Submission date: 2024-05-09
Final revision date: 2024-05-19
Acceptance date: 2024-05-20
Publication date: 2024-05-20
SBN 2024;33(3): 69-90
KEYWORDS
TOPICS
ABSTRACT
The purpose of this article is to assess and understand how artificial intelligence (AI) can influence the creation and dissemination of content for the purpose of disinformation, and how AI affects the distribution of such content. As the development and growth in popularity of content generation tools can be clearly seen, their use to create fake news is also steadily increasing. Professionally created content in both textual and graphical forms can be increasingly difficult for the reader to verify. The aim is also to identify strategies to counter disinformation created by artificial intelligence. The research problem focuses on verifying whether modern generative tools can be used to create and disseminate false information. The paper hypothesizes that AI-generated content can influence social misinformation, but that there are opportunities to mitigate the effects of this negative phenomenon. The research methodology was based on a critical analysis of the literature and experiments using popular AI tools to generate text and graphics. The results of the research confirmed that AI tools can be used to create fake content on a large scale. The use of AI tools not only facilitates the creation of professional content, but also allows it to be created very quickly, using little effort. Research has also shown that although censorship mechanisms are in place, there are methods to break through such safeguards. In the body of the article, the possibilities of bypassing the security mechanisms of AI tools are described. The conclusions of the research show the need to educate the public, which is a key element in the fight against disinformation. In addition, the article points out the importance of media responsibility in the process of verifying and exposing false content, which is an important element in countering disinformation.
REFERENCES (34)
1.
Aleksandrowicz, T., 2022. Mechanizmy ataku informacyjnego. Skuteczność przeciwdziałania. Dezinformacja - Inspiracja - Społeczeństwo. Social CyberSecurity, 11-33.
2.
Antebi, L., 2021. What is Artificial Intelligence? Artificial Intelligence and National Security in Israel, 31-39.
3.
Baptista, E., 2023. Reuters [online]. Dostępne pod adresem:
https://www.reuters. com/technology/china-proposes-blacklist-sources-used-train-generative-aimodels- 2023-10-12, [dostęp: 01 kwietnia 2024].
4.
Baron-Polańczyk, E., 2019. Boty, trolle i fake news – uważaj, kto cię uczy! Edukacja – Technika – Informatyka, 218-226.
5.
Bąkiewicz, K., 2019. Wprowadzenie do definicji i klasyfikacji zjawiska fake newsa. Studia medioznawcze, 20 (3).
6.
Chłoń, T., 2021. Przeciwdziałanie dezinformacji – inicjatywy i instrumenty obywatelskie, rządowe i międzynarodowe w wybranych państwach, instytucjach i organizacjach. Platforma przeciwdziałania dezinformacji - budowanie odporności społecznej badania i edukacja, 71-93.
7.
Diaz Ruiz, C. i Nilsson, T., 2023. Disinformation and Echo Chambers: How Disinformation Circulates on Social Media Through Identity-Driven Controversies. Journal of Public Policy & Marketing 42(1), 18-35.
8.
Drucker, S., Chun, R. i Murillo, M. A., 2020. Fake News and the Covid-19 Pandemic. Proceedings of the New York State Communication Association.
10.
Gałek, B., 2022. Cyfrowy astroturfing jako instrument kreowania procesów politycznych. Zarys problematyki. Doctrina - Studia Społeczno-Polityczne 19/2022, 174-186.
11.
García-Peñalvo, F. i Vázquez-Ingelmo, A., 2022. What Do We Mean by GenAI? A Systematic Mapping of The Evolution, Trends, and Techniques Involved in Generative AI. International Journal of Interactive Multimedia and Artificial Intelligence, 1-10.
12.
Glukhov, D. i inni, 2023. LLM Censorship: A Machine Learning Challenge or a Computer Security Problem? 1-16.
13.
Głowacka, D., Obem, A., Szumańska, M. i Biel, B., 2019. Stop dezinformacji - Przewodnik dla dziennikarzy i redakcji. Warszawa: Fundacja Panoptykon.
14.
Guhagarkar, N., Desai, S., Vaishyampayan, S. i Save, A., 2021. Deepfake detection techniques: a review. VIVA-Tech International Journal for Research and Innovation, 1-10.
15.
Idzik, J. i Klepka, R., 2020. Vademecum Bezpieczeństwa Informacyjnego [online]. Dostępne pod adresem:
https://vademecumbezpieczenstw.... krakow.pl/2020/03/10/echo-chamber, [dostęp: 30 marca 2024].
16.
Kacała, T., 2015. Dezinformacja i propaganda w kontekście zagrożeń dla bezpieczeństwa państwa. Przegląd Prawa Konstytucyjnego, 49-65.
17.
Kitler, W., 2023. Bezpieczeństwo wewnętrzne w świetle współczesnych wyzwań, teorii i praktyki problemu. Wiedza Obronna, 282 (1).
18.
Komisja Europejska, 2018. Komunikat Komisji do Parlamentu Europejskiego, Rady Europejskiej, Europejskiego Komitetu Ekonomicznospołecznego i Komitetu Regionów - Sztuczna inteligencja dla Europy. Bruksela.
19.
Krajowa Rada Radiofonii i Telewizji, 2020. Fake news - dezinformacja online próby przeciwdziałania tym zjawiskom z perspektywy instytucji międzynarodowych oraz wybranych państw UE, w tym Polski, Warszawa: Krajowa Rada Radiofonii i Telewizji.
20.
Kupiecki, R., 2021. Dezinformacja w stosunkach międzypaństwowych. Geneza, cele, aktorzy, metody – zarys problemu. Platforma Przeciwdziałania Dezinformacji - Budowanie Odporności Społecznej Badania i Edukacja, 15-32.
21.
Kupiecki, R., 2022. NATO a dezinformacja. Sprawy międzynarodowe, 19-44.
22.
Materska, K., 2021. Infodemia w padnemii. Horyzonty wychowania, 61-71.
23.
Mroczka, K., 2022. Fake newsy jako nowa kategoria zagrożenia systemu bezpieczeństwa ekonomicznego państwa w dobie kryzysu epidemicznego. Przegląd bezpieczeństwa wewnętrznego 26 (14).
24.
Naveed, H. i inni, 2023. A Comprehensive Overview of Large Language Models. Preprint.
25.
Olech, A. i Dobrowolska, J., 2022. Polsko-ukraińskie relacje a rosyjskie działania dezinformacyjne. Studia Bezpieczeństwa Narodowego Zeszyt 26, 63-72.
26.
Policja Narodowa Ukrainy, 2022. Policja Narodowa Ukrainy [online]. Dostępne pod adresem:
https://www.npu.gov.ua/news/ki...- z-prypynennia-diialnosti-vorozhykh-botoferm, [dostęp: 25 marca 2024].
27.
Samuel, J., Khanna, T. i Sundar, S., 2024. Fear of Artificial Intelligence? NLP, ML and LLMs Based Discovery of AI-Phobia and Fear Sentiment Propagation by AI News. RAISE-24, 1-32.
28.
Security Service of Ukraine, 2021. Security Service of Ukraine [online]. Dostępne pod adresem:
https://ssu.gov.ua/en/novyny/s...- za-piv-roku-stvoryly-ponad-12-tysiach-akauntiv, [dostęp: 24 marca 2024].
29.
Urman, A. i Makhortykh, M., 2023. The Silence of the LLMs: Cross-Lingual Analysis of Political Bias and False Information Prevalence in ChatGPT, Google Bard, and Bing Chat., 1-11.
30.
Wang, P., 2019. On Defining Artificial Intelligence. Journal of Artificial General Intelligence 10(2) 1-37, 1-37.
31.
Wasiuta, O. i Wasiuta, S., 2019. Deepfake jako skomplikowana i głęboko fałszywa rzeczywistość. Studia de Securitate 9(3), 19-30.
32.
Wodecki, B., 2024. AI Business. [Online] Dostępne pod adresem:
https://aibusiness. com/nlp/now-anyone-can-build-an-uncensored-chatgpt, [dostęp: 01 kwietnia 2024].
33.
Zaleśkiewicz, T., Gąsiorowska, A. i Bar-Tal, Y., 2015. Efekt aktywnej rekomendacji czy efekt konfirmacyjny? Mechanizm zniekształceń poznawczych w ocenie autorytetu epistemicznego na przykładzie ekspertów z dziedziny finansów. Psychologia Ekonomiczna, 8, 59-74.
34.
Żuchowska-Skiba, D., 2022. Manipulacja w mediach. Kraków: AGH.