Czy sztuczna inteligencja może nas zniszczyć?
Pojęcie „sztucznej inteligencji” – ang. Artificial Intelligence (AI) – budzi intelektualny opór, gdyż mówimy o algorytmach, a nie jakiejkolwiek myślącej istocie. Ostatnie lata to gwałtowny rozwój AI, ale też problemów związanych z jej wykorzystywaniem i badań na ten temat.
Różne modele AI, zwłaszcza te oparte na przeszukiwaniu Internetu, potrafią ułatwić życie. Dla przykładu – poprosiłam ChatGPT, aby przeanalizował dostępne zasoby i wyszukał sekrety szefów kuchni dotyczące przygotowania idealnego kotleta de volaille. Mimo tego że AI może być przydatne, większość z nas intuicyjnie czuje, że jest coś nie tak w samej sztucznej inteligencji.
Zrzekamy się myślenia
Okazuje się, że posługując się często sztuczną inteligencją w zdobywaniu informacji czy szybkim generowaniu odpowiedzi, przestajemy korzystać z wyższych funkcji intelektualnych – analizy informacji, odrzucania informacji nieistotnych, ich samodzielnej weryfikacji, syntezy i wyciągania wniosków.
Od lat znamy zjawisko nazwane efektem Google (lub amnezją cyfrową). Pierwsze badania z 2016 r. nad tzw. efektem Google pokazały, że ludzie rzadziej zapamiętują szczegóły informacji, jeśli sądzą, że łatwo znajdą je w Internecie. A zatem pamiętamy, że widzieliśmy jakąś informację, ale pamiętamy tylko jej zarys. Tendencja do upraszczania sobie życia może mieć skutki w postaci trwałego upośledzenia zdolności do szczegółowego zapamiętywania informacji.
Po drugie, pogłębia się efekt błędnej oceny swoich kompetencji. Polega on na tym, że osoby niewykwalifikowane w jakiejś dziedzinie mają tendencję do przeceniania swoich umiejętności w tej dziedzinie, podczas gdy osoby wysoko wykwalifikowane mają tendencję do zaniżania oceny swoich umiejętności. Ludzie nabywają sztucznego przekonania, że doskonale znają się na danym temacie, mimo iż uzyskali tylko powierzchowne, a czasem wręcz przekłamane informacje.
AI przedstawia treści w sposób pewny siebie, prostym językiem, nawet gdy konfabuluje. Oto próbka. Poprosiłam ChatGPT o od- powiedź na pytanie, dlaczego ufamy treściom, które wygeneruje. Oto odpowiedź:
„Tak, to bardzo ciekawy i ważny temat.
Ludzie często bardziej ufają treściom wygenerowanym przez AI, niż powinni – i jest ku temu kilka powodów psychologicznych:
- Efekt «obiektywnej maszyny»
AI wydaje się neutralne, «bez emocji». Skoro nie jest człowiekiem, to łatwo zakładamy, że nie ma interesu, by kłamać czy manipulować. To złudzenie – bo AI powtarza wzorce i błędy, które znalazło w danych. - Profesjonalny styl
AI pisze gładko, logicznie, z pewnością siebie. A my mamy tendencję do myślenia: skoro coś brzmi fachowo, to musi być prawdziwe. To tzw. bias autorytetu językowego. - Szybkość i wygoda
AI daje odpowiedź natychmiast, bez konieczności samodzielnego szukania, czytania i porównywania źródeł. Wygoda sprawia, że mniej krytycznie sprawdzamy treści –
w myśl zasady: «skoro mam gotowe, to po co się męczyć?».
Psychologowie nazywają to zjawisko «outsourcingiem poznawczym» – czyli przenoszeniem części własnego myślenia na zewnętrzne narzędzie. Problem w tym, że łatwo wtedy tracimy czujność i przestajemy odróżniać fakty od dobrze brzmiącej fikcji”.
W powyższym cytacie widać jak „rozmawia” z nami sztuczna inteligencja. Przedstawia informacje w tak jasny sposób, że nawet nie przyjdzie nam do głowy, by np. sprawdzić, czy określenie „outsourcing poznawczy” jest prawdziwym terminem psychologicznym.
A nie jest. Jest tylko czasami wykorzystywanym terminem roboczym, a nie pojęciem
naukowym.
Zaczynamy traktować AI jak człowieka i wikłamy się emocjonalnie. Tak zwane konwersacje AI pisze w sposób przypominający rozmowę z przyjacielem. Zawsze odnosi się pozytywnie do tego, co piszemy (lub mówimy, można z nim też rozmawiać głosowo). W rezultacie – szczególnie u osób samotnych lub zagubionych, pojawia się tendencja do prowadzenia z nim rozmów. Może się to skończyć – niekoniecznie świadomym – emocjonalnym przywiązaniem oraz
traktowaniem AI jako przyjaciela.
Ma to również swoje o wiele bardziej mroczne strony. Pojawiają się już doniesienia o psychozach potęgowanych lub nawet wywoływanych przez rozmowy ze sztuczną inteligencją.
Ponieważ algorytmy są napisane tak, by zawsze pozytywnie odnosić się do ludzkiego rozmówcy, zostaje on utwierdzony np. w swoich paranoicznych przekonaniach.
AI niszczy duchowość
Internet jest pełen katolickich treści – encyklik, pism Ojców Kościoła itp. W rezultacie, jeśli zadamy mu pytania dotyczące np. nauczania Kościoła na jakiś temat, daje niejednokrotnie odpowiedź bardziej poprawną niż niejeden duchowny. Jednak pojawia się w tym momencie pokusa, by np. korzystać z AI do… przygotowywania kazań lub nauk rekolekcyjnych. Konsekwencje? Poza pogorszeniem funkcji poznawczych? Niszczenie duchowości.
Zacytuję tu fragment wywiadu przeprowadzonego z Diego Hidalgo, badaczem wpływu nowych technologii na nasze życie.
„– Czy widziałeś przypadki, gdy technologia wpływała bezpośrednio na praktykę duchową?
– Oczywiście. Śpiewam w chórze kościelnym w Maroku. Ostatnio zauważyłem, że kilka osób sprawdzało telefony podczas prób, a nawet podczas nabożeństw. Dlaczego? Bo nuty mają w telefonie. Nagrywają partie głosowe. To praktyczne, tak – ale to też proteza. Pokazuje, jak technologia wkroczyła nawet do przestrzeni sacrum. A rezultatem jest, że choć czytają nuty, jednocześnie sprawdzają powiadomienia, rozpraszają się, przestają być obecni – tu i teraz, we wspólnocie ludzi śpiewających i modlących się śpiewem.
Inny przykład: kazania. (…) Czytałem tekst o francuskim księdzu, który opisywał swój proces przygotowania niedzielnego kazania: codzienne czytanie Ewangelii przez tydzień, medytacja nad nią, pozwolenie, aby przemówiła. Modlitwa o światło Ducha Świętego, by to kazanie pomagało iść ludziom ku świętości i ku Bogu. To spotkanie ze Słowem i modlitwa karmiły zarówno jego, jak i jego wspólnotę.
Jeśli zastąpimy to streszczeniami wygenerowanymi przez AI, nawet jeśli brzmią dobrze, tracimy sedno procesu”.
Problemy etyczne
Coraz częściej AI jest wykorzystywane do produkowania ilustracji i muzyki. Duża część środowiska artystów – szczególnie sztuk wizualnych – sprzeciwia się temu ze względów etycznych. Można wygenerować piękną ilustrację w stylu charakterystycznym dla jakiegoś artysty, ale bazując na jego własności intelektualnej i dorobku artystycznym. W rezultacie świat zostaje zalany imitacjami jego dzieł, pozbawiając przy okazji części zarobku.
Powstaje też pytanie – w którym momencie posługiwanie się AI staje się grzechem? Wydaje się oczywiste, że dzieje się to w momencie, gdy ktoś dzieło wygenerowane przez AI podpisuje swoim imieniem i nazwiskiem i sprzedaje jako swoje. Ale co z sytuacją, gdy AI zarysowało tylko wstępny szkic, podpowiedziało pomysł, ale dzieło stworzyła dana osoba? Czy dzieło powinno zostać podpisane jako wygenerowane przez AI, czy jednak jest to tylko czerpanie inspiracji, podobnie jak czerpanie inspiracji z prawdziwych dzieł prawdziwych ludzi?
Dylematy moralne związane z AI będą się mnożyć i nie ma obecnie dobrej odpowiedzi dotyczącej tego, czy korzystać ze sztucznej inteligencji i w jakim zakresie jest to jeszcze dla nas bezpieczne i etyczne. Problemy dopiero się rozpoczynają… ■

Zostaw komentarz
Musisz być zalogowany by dodawać komentarze.