ARTYKUŁ PRZEGLĄDOWY
TREŚCI GENEROWANE PRZEZ SZTUCZNĄ INTELIGENCJĘ W KONTEKŚCIE OCHRONY PRZED DEZINFORMACJĄ
Więcej
Ukryj
1
RCS Engineering Sp. z o.o., Polska
A - Koncepcja i projekt badania; B - Gromadzenie i/lub zestawianie danych; C - Analiza i interpretacja danych; D - Napisanie artykułu; E - Krytyczne zrecenzowanie artykułu; F - Zatwierdzenie ostatecznej wersji artykułu
Data nadesłania: 09-05-2024
Data ostatniej rewizji: 19-05-2024
Data akceptacji: 20-05-2024
Data publikacji: 20-05-2024
SBN 2024;33(3): 69-90
SŁOWA KLUCZOWE
DZIEDZINY
STRESZCZENIE
Celem artykułu jest wyjaśnienie w jaki sposób sztuczna inteligencja (AI – artificial intelligence) może wpłynąć na tworzenie i rozpowszechnianie treści w celu dezinformacji oraz jak AI wpływa na dystrybucję takich treści. Jako, że można zaobserwować wyraźny rozwój oraz wzrost popularności narzędzi do generowania treści, to ich wykorzystanie do tworzenia nieprawdziwych informacji także stale rośnie. Profesjonalne tworzone treści zarówno w formie tekstowej jak i w formie graficznej mogą być coraz trudniejsze dla czytelnika do zweryfikowania. Celem jest także identyfikacja strategii, które pozwolą na przeciwdziałanie dezinformacji tworzonej przez sztuczną inteligencję. Problem badawczy skupia się na weryfikacji, w jaki sposób narzędzia generatywne mogą być wykorzystane do tworzenia i rozpowszechniana nieprawdziwych informacji. W artykule przyjęto hipotezę, że treści generowane przez sztuczną inteligencję mogą wpłynąć na dezinformację społeczną, jednak istnieją możliwości ograniczania skutków tego negatywnego zjawiska. Metodyka badań opierała się o krytyczną analizę literatury oraz eksperymenty z użyciem popularnych narzędzi AI do generowania tekstu oraz grafik. Wyniki przeprowadzonych badań potwierdziły, że narzędzia AI mogą być wykorzystywane do tworzenia błędnych treści na dużą skalę. Stosowanie narzędzi AI nie tylko ułatwia tworzenie profesjonalnych treści, ale pozwala także na ich bardzo szybkie tworzenie, przy zastosowaniu niewielkiego nakładu pracy. Badania wykazały także, że choć stosowane są mechanizmy cenzury to istnieją metody umożliwiające przełamanie takich zabezpieczeń. W treści artykułu zostały opisane możliwości obejścia mechanizmów zabezpieczających narzędzia AI. Wnioski z badań ukazują potrzebę edukacji społeczeństwa, co stanowi kluczowy element w walce z dezinformacją. Dodatkowo, artykuł wskazuje na znaczenie odpowiedzialności mediów w procesie weryfikacji i demaskowania błędnych treści, co stanowi istotny element w przeciwdziałaniu dezinformacji.
REFERENCJE (34)
1.
Aleksandrowicz, T., 2022. Mechanizmy ataku informacyjnego. Skuteczność przeciwdziałania. Dezinformacja - Inspiracja - Społeczeństwo. Social CyberSecurity, 11-33.
2.
Antebi, L., 2021. What is Artificial Intelligence? Artificial Intelligence and National Security in Israel, 31-39.
3.
Baptista, E., 2023. Reuters [online]. Dostępne pod adresem:
https://www.reuters. com/technology/china-proposes-blacklist-sources-used-train-generative-aimodels- 2023-10-12, [dostęp: 01 kwietnia 2024].
4.
Baron-Polańczyk, E., 2019. Boty, trolle i fake news – uważaj, kto cię uczy! Edukacja – Technika – Informatyka, 218-226.
5.
Bąkiewicz, K., 2019. Wprowadzenie do definicji i klasyfikacji zjawiska fake newsa. Studia medioznawcze, 20 (3).
6.
Chłoń, T., 2021. Przeciwdziałanie dezinformacji – inicjatywy i instrumenty obywatelskie, rządowe i międzynarodowe w wybranych państwach, instytucjach i organizacjach. Platforma przeciwdziałania dezinformacji - budowanie odporności społecznej badania i edukacja, 71-93.
7.
Diaz Ruiz, C. i Nilsson, T., 2023. Disinformation and Echo Chambers: How Disinformation Circulates on Social Media Through Identity-Driven Controversies. Journal of Public Policy & Marketing 42(1), 18-35.
8.
Drucker, S., Chun, R. i Murillo, M. A., 2020. Fake News and the Covid-19 Pandemic. Proceedings of the New York State Communication Association.
10.
Gałek, B., 2022. Cyfrowy astroturfing jako instrument kreowania procesów politycznych. Zarys problematyki. Doctrina - Studia Społeczno-Polityczne 19/2022, 174-186.
11.
García-Peñalvo, F. i Vázquez-Ingelmo, A., 2022. What Do We Mean by GenAI? A Systematic Mapping of The Evolution, Trends, and Techniques Involved in Generative AI. International Journal of Interactive Multimedia and Artificial Intelligence, 1-10.
12.
Glukhov, D. i inni, 2023. LLM Censorship: A Machine Learning Challenge or a Computer Security Problem? 1-16.
13.
Głowacka, D., Obem, A., Szumańska, M. i Biel, B., 2019. Stop dezinformacji - Przewodnik dla dziennikarzy i redakcji. Warszawa: Fundacja Panoptykon.
14.
Guhagarkar, N., Desai, S., Vaishyampayan, S. i Save, A., 2021. Deepfake detection techniques: a review. VIVA-Tech International Journal for Research and Innovation, 1-10.
15.
Idzik, J. i Klepka, R., 2020. Vademecum Bezpieczeństwa Informacyjnego [online]. Dostępne pod adresem:
https://vademecumbezpieczenstw.... krakow.pl/2020/03/10/echo-chamber, [dostęp: 30 marca 2024].
16.
Kacała, T., 2015. Dezinformacja i propaganda w kontekście zagrożeń dla bezpieczeństwa państwa. Przegląd Prawa Konstytucyjnego, 49-65.
17.
Kitler, W., 2023. Bezpieczeństwo wewnętrzne w świetle współczesnych wyzwań, teorii i praktyki problemu. Wiedza Obronna, 282 (1).
18.
Komisja Europejska, 2018. Komunikat Komisji do Parlamentu Europejskiego, Rady Europejskiej, Europejskiego Komitetu Ekonomicznospołecznego i Komitetu Regionów - Sztuczna inteligencja dla Europy. Bruksela.
19.
Krajowa Rada Radiofonii i Telewizji, 2020. Fake news - dezinformacja online próby przeciwdziałania tym zjawiskom z perspektywy instytucji międzynarodowych oraz wybranych państw UE, w tym Polski, Warszawa: Krajowa Rada Radiofonii i Telewizji.
20.
Kupiecki, R., 2021. Dezinformacja w stosunkach międzypaństwowych. Geneza, cele, aktorzy, metody – zarys problemu. Platforma Przeciwdziałania Dezinformacji - Budowanie Odporności Społecznej Badania i Edukacja, 15-32.
21.
Kupiecki, R., 2022. NATO a dezinformacja. Sprawy międzynarodowe, 19-44.
22.
Materska, K., 2021. Infodemia w padnemii. Horyzonty wychowania, 61-71.
23.
Mroczka, K., 2022. Fake newsy jako nowa kategoria zagrożenia systemu bezpieczeństwa ekonomicznego państwa w dobie kryzysu epidemicznego. Przegląd bezpieczeństwa wewnętrznego 26 (14).
24.
Naveed, H. i inni, 2023. A Comprehensive Overview of Large Language Models. Preprint.
25.
Olech, A. i Dobrowolska, J., 2022. Polsko-ukraińskie relacje a rosyjskie działania dezinformacyjne. Studia Bezpieczeństwa Narodowego Zeszyt 26, 63-72.
26.
Policja Narodowa Ukrainy, 2022. Policja Narodowa Ukrainy [online]. Dostępne pod adresem:
https://www.npu.gov.ua/news/ki...- z-prypynennia-diialnosti-vorozhykh-botoferm, [dostęp: 25 marca 2024].
27.
Samuel, J., Khanna, T. i Sundar, S., 2024. Fear of Artificial Intelligence? NLP, ML and LLMs Based Discovery of AI-Phobia and Fear Sentiment Propagation by AI News. RAISE-24, 1-32.
28.
Security Service of Ukraine, 2021. Security Service of Ukraine [online]. Dostępne pod adresem:
https://ssu.gov.ua/en/novyny/s...- za-piv-roku-stvoryly-ponad-12-tysiach-akauntiv, [dostęp: 24 marca 2024].
29.
Urman, A. i Makhortykh, M., 2023. The Silence of the LLMs: Cross-Lingual Analysis of Political Bias and False Information Prevalence in ChatGPT, Google Bard, and Bing Chat., 1-11.
30.
Wang, P., 2019. On Defining Artificial Intelligence. Journal of Artificial General Intelligence 10(2) 1-37, 1-37.
31.
Wasiuta, O. i Wasiuta, S., 2019. Deepfake jako skomplikowana i głęboko fałszywa rzeczywistość. Studia de Securitate 9(3), 19-30.
32.
Wodecki, B., 2024. AI Business. [Online] Dostępne pod adresem:
https://aibusiness. com/nlp/now-anyone-can-build-an-uncensored-chatgpt, [dostęp: 01 kwietnia 2024].
33.
Zaleśkiewicz, T., Gąsiorowska, A. i Bar-Tal, Y., 2015. Efekt aktywnej rekomendacji czy efekt konfirmacyjny? Mechanizm zniekształceń poznawczych w ocenie autorytetu epistemicznego na przykładzie ekspertów z dziedziny finansów. Psychologia Ekonomiczna, 8, 59-74.
34.
Żuchowska-Skiba, D., 2022. Manipulacja w mediach. Kraków: AGH.