Przepytaliśmy autorów wydanej niedawno przez Powergraph antologii „PoznAI przyszłość. Opowiadania o umyśle i nauce”. Wywiad to trochę nietypowy, bowiem zadaliśmy wszystkim twórcom te same dwa pytania. Odpowiedzi okazały się tak samo zróżnicowane, jak zebrane w zbiorze opowiadania. Polecamy przeczytać, co czołowi twórcy science fiction w Polsce myślą o przyszłości AI.
Rozmawiał Mariusz Wojteczek
1. Zbawienie, czy przekleństwo ludzkości? Jakie największe zagrożenie (i czy w ogóle) widzisz w rozwoju AI?
2. AI jest zdolna ofiarować nam coś dobrego, pozytywnego? Jeśli tak, co to może być?
Radek Rak
Ani zbawienie, ani przekleństwo. To są duże słowa, a nadużywanie dużych słów jest zagrożeniem o wiele realniejszym niż cokolwiek, czego moglibyśmy spodziewać się po sztucznej inteligencji. Już wypłukało się nam ze znaczenia przynajmniej jedno słowo – nienawiść; każdą formę niechęci można dziś w ten sposób określić, zwłaszcza w sieci, a przecież od niechęci do prawdziwej nienawiści jest daleka droga. Dlatego powstrzymałbym się od określania jakichś narzędzi mianem zbawienia lub przekleństwa.
W takiej formie, w jakiej istnieje ona obecnie, narzędzie jest narzędziem, więc to od człowieka zależy, jaki użytek z niego zrobi. Przebywając w rzeczywistości wirtualnej, zauważamy rzecz jasna, że to narzędzie może również używać nas – algorytmy mediów pokazując nam wyłącznie spersonalizowane (podobno) treści zamykają nas głęboko w bańkach. To jest realne zagrożenie, bo tracimy zdolność porozumiewania się z osobami spoza naszej bańki, a może nawet nie do końca chcemy się z nimi porozumiewać. Te same słowa zaczynają mieć różne znaczenia, choć język pozostaje pozornie ten sam. Co uważam za zagrożenie głębsze od AI.
To zagrożenie uświadamiamy sobie chyba coraz lepiej, a uświadomienie sobie zagrożenia to krok w kierunku jego przezwyciężenia. Może więc – tak sobie fantazjuję jako osoba wybitnie atechnologiczna i niecyfrowa – udałoby się wykorzystać to, co dziś nazywamy sztuczną inteligencją, by stworzyć narzędzie do rozrywania baniek?
Zawsze też możemy użyć sztucznej inteligencji do tworzenia śmiesznych treści. Jakiejś nowej generacji memów, dowcipów i zabawnych filmów. Mam wrażenie, że to jedna z lepszych rzeczy, jaką można zdziałać z AI.
Michał Protasiuk
Ad. 1. Na zagrożenia ze strony AI możemy spojrzeć dwojako. Pierwszym skojarzeniem wśród miłośników science fiction powinno być oczywiście ryzyko o charakterze egzystencjalnym. Mam na myśli uzyskującą samoświadomość Sztuczną Inteligencję, zrywającą się ze smyczy: odpalający głowice nuklearne Skynet czy Matrix sprowadzający ludzkość do roli biologicznych baterii. W tej kwestii pozostaję wielkim optymistą. Bardzo trafiają do mnie argumenty neuronaukowca Jeffa Hawkinsa twierdzącego, że przy obecnym paradygmacie konstrukcji AI, opartym przede wszystkim na głębokim uczeniu sztucznych sieci neuronowych, nie grozi nam żadna spontaniczna kreacja nowego, wrogo nastawionego bytu, kierującego się własnymi celami. Nie wchodząc przesadnie w techniczne szczegóły i znacznie upraszczając, tok rozumowania Hawkinsa jest następująca. Ludzki mózg składa się z dwóch zasadniczych części: mózgu „starego” i „nowego”, czyli kory nowej. Mózg „stary” kieruje zachowaniem organizmu poza kontrolą świadomości i działa na podstawie prastarych ewolucyjnych skryptów, zaś kora nowa to organ inteligencji, która czasem (acz nie zawsze) potrafi przeciwstawić się instynktom mózgu „starego”. Kiedy myślimy o zbuntowanej AI mamy na myśli konflikt międzygatunkowy i walkę o ograniczone zasoby planetarne. Jednak biologiczny imperatyw przetrwania, instynkt samozachowawczy stanowi wyłączną domenę mózgu „starego” i możemy o nim myśleć jako o biologicznym okablowaniu, ewolucyjnym dziedzictwie tysięcy gatunków, istniejących przed homo sapiens. Tymczasem mówiąc o „sztucznej inteligencji” mamy na myśli zadania wykonywane przez korę nową. Zatem nawet najbardziej inteligenta AI skonstruowana w ten sposób nie będzie stanowiła zagrożenia dla ludzkości, ponieważ nie będzie miała ekspansjonistycznej natury, za którą w przypadku człowieka i innych gatunków odpowiada mózg „stary”. Bez mózgu „starego” AI udowodni najbardziej skomplikowane twierdzenie matematyczne, ale nigdy nie będzie potrafiła postawić przed sobą w proaktywny sposób celu działania.
Drugie zagrożenie ma charakter bardziej taktyczny i wiąże się przede wszystkim z prędkością zmian wywoływanych przez AI i ich społeczny wpływ. Mustafa Suleyman, jeden z założycieli firmy Deep Mind mówi o „nadchodzącej fali” postępu technologicznego, która zmieni świat nieodwołalnie w ciągu najbliższych kilkunastu lat. Jednocześnie nawołuje on do większego kontrolowania rozwoju technologii, a być może nawet celowego spowolnienia postępu, celem minimalizowania ryzyka. I znowu nie mam na myśli tutaj wzmiankowanego wcześniej ryzyka „egzystencjalnego”, ale po prostu możliwości wykorzystania AI do czynienia złych rzeczy: na przykład szerzenie dezinformacji przez perfekcyjne wyprodukowane deep fejki czy zaprojektowanie przez AI superwirusa biologicznego. Powtórzę: to człowiek może wykorzystać AI w złym celu, AI pozostaje wyłącznie narzędziem. Warto w tym miejscu przytoczyć zgrabną metaforę zaproponowaną przez wpływowego filozofa Nicka Bostroma, (na marginesie warto wspomnieć, że Bostrom chyba jako pierwszy w świecie akademickim na serio rozważał strategie konfliktu ze zbuntowaną AI). Wyobraźmy sobie, że mamy urnę, mówi Bostrom, gdzie są trzy rodzaje kul. Kule białe to technologie i wynalazki, które niosą ludzkości samo dobro, na przykład szczepionki czy antybiotyki. Kule szare to technologie, które można wykorzystać w celu zarówno dobrym, jak i złym. Czymś takim jest energia jądrowa: możemy zbudować elektrownię albo anihilować w jednej eksplozji spore miasto. I wreszcie w urnie mamy kulę czarną, czyli technologię jednoznacznie złą, która ma moc zniszczenia ludzkiej cywilizacji. Do tej pory losujemy kule, czyli rozwijamy nowe technologie i tworzymy wynalazki z nadzieję, że nie trafimy na tę czarną kulę, albo wręcz w ogóle nie bierzemy pod uwagę możliwości jej istnienia. Ale czy nadzieja jest wystarczającą strategią? Czy takie działanie jest odpowiedzialne? Czy nie powinniśmy być bardziej ostrożni i próbować przewidywać dalekosiężne konsekwencje postępu technologicznego? Skłaniam się ku temu poglądowi.
Ad. 2 Ależ oczywiście, że tak i uważam wręcz, że w długiej perspektywie te korzyści zdecydowanie przeważą nad zagrożeniami. Na skutek sukcesów OpenAI w ostatnim czasie większość osób zafiksowała się na generatywnej AI, ale przecież to tylko jedna z możliwych manifestacji AI. Nie zapominajmy o AI wykorzystywanej do analizy danych i wykrywania w dużych zbiorach danych nieliniowych wzorców zbyt skomplikowanych, by zostały wychwycone przy użyciu tradycyjnych metod statystycznych. Najbardziej oczywistym przykładem jest wykorzystywanie możliwości AI w medycynie: do wczesnego diagnozowania chorób, poszukiwania nowych leków, projektowania terapii spersonalizowanych. Już obecnie na tym polu jest wiele sukcesów.
Generalnie wolałbym jednak na to pytanie odpowiedzieć w nieco wykrętny sposób. Kiedy Apple w 2007 roku wypuszczał na rynek pierwszego iPhone’a nikt nie przypuszczał, jak bardzo smartphony zmienią nasze życie w kolejnej dekadzie. To dopiero kreatywność tysięcy deweloperów pokazała jak wiele przydatnych aplikacji można stworzyć, aby ułatwić (albo czasem wręcz przeciwnie!) nam życie. Uważam, że podobnie będzie z AI. Myślmy o niej jako platformie, potężnym narzędziu, które może zostać wykorzystywane zarówno w dobrym, jak i złym celu, w zależności od intencji użytkownika.
Justyna Hankus
Ad. 1. Cywilizacja AI wyeliminuje cywilizację ludzkości szybciej niż nam się wydaje. Nie jesteśmy w stanie tego zatrzymać i wydaje się to być naturalnym porządkiem rzeczy, tak, jak każdy postęp. Sami to zrobiliśmy i w tej chwili możemy jedynie próbować spowolnić skutki rozwoju AI, po to, żebyśmy się nauczyli żyć obok siebie bez strat, póki nie umrze ostatni człowiek. Czy przetrwamy jako świadomość w wirtualnych plikach? Być może, ale nie wiemy przecież na pewno. Czy powinniśmy przetrwać jako praprzodek AI i eksponat muzealny? Może się uda, tylko po co?
Ad. 2. To jest trudne pytanie, dlatego, że AI wymyka się spod kontroli człowieka i sama się uczy. Pewnie mogłaby dać ludziom coś pozytywnego, np. w dziedzinie medycyny, neurochirurgii, ale, gdy nauczy się nas kontrolować będzie chciała być dominującym gatunkiem i wtedy może być nieciekawie. Wiem, że to, co mówię w tej chwili brzmi jak nieudolne proroctwo, ale sięgając do przykładu mojego dnia codziennego powiem, że w dziedzinie grafiki komputerowej od stycznia bieżącego roku do czerwca postęp AI jest niebywały i mój zawód wkrótce nie będzie potrzebny, a na pewno ograniczy się do wpisywania w program odpowiednich promptów. Więc będę niepotrzebna, zastąpi mnie AI – myślę, że stanie się to w ciągu paru lat. To niemiła perspektywa, ale czy mam o to pretensje? Ależ skąd. To tak jakby mieć pretensje do maszyny parowej lub kolei. To jest postęp, tak musi być, chociaż tym razem niebezpiecznie daleko to poszło. I nie zatrzyma się nigdy.
Rafał Kosik
Ad 1. Chciałbym powiedzieć, że to zależy od nas, ale wcale nie jestem tego pewien. Najpierw trzeba by zdefiniować „nas”. Jeżeli mówimy o jednostkach czy nawet społeczeństwach, takich państwach jak Polska, to nie mamy na rozwój AI większego wpływu. Jeżeli za „nas” uznamy całą ludzkość… to też wiele więcej zrobić nie możemy. Jesteśmy podzieleni na kilka bloków politycznych i nie istnieje nic takiego jak rząd światowy, który mógłby odgórnie narzucać reguły rozwoju AI. Wszelkie lokalne regulacje, do jakich np. zabiera się na poważnie EU, będą działały tylko lokalnie. W dużym skrócie: ten, kto nie będzie hamował rozwoju AI u siebie, wygra wyścig technologiczny. Nikt nie ma więc szczerej motywacji, by na serio okiełznać sztuczną inteligencję.
Największe zagrożenie widzę w tempie rozwoju AI. Przejęcie kontroli nad światem nie będzie wcale celem AI, lecz wydarzy się niejako przy okazji kolejnych implementacji, które wprowadzają sami ludzie, państwa, korporacje. Iluzoryczna możliwość „wyciągnięcia wtyczki” już dziś nie istnieje. Najgorsze, co może nas spotkać, to konflikt z AI. Nie wiem jeszcze, na jakiej płaszczyźnie może on nastąpić, choć zgaduję, że będzie to miało związek z dostępem do energii.
Ad 2. Już to ofiarowuje. Choćby zwolnienie nas z konieczności wykonywania monotonnych i mało satysfakcjonujących prac umysłowych. Oczywiście wiąże się to z tym, że miejsca pracy, a nawet całe zawody, będą znikać. Przykrość będzie tymczasowa, bo w ostatecznym rozrachunku, w skali pokoleń, postęp opłaca się wszystkim. Potomkom robotników, którzy stracili pracę w wyniku upowszechnienia się maszyn parowych, żyje się znacznie lepiej. Skala zastosowań technologii, które nie zawsze poprawnie nazywamy sztuczną inteligencją, jest tak szeroka, że nawet trudno je wymienić. AI przyda się wszędzie, od codziennej podstawowej nauki, poprzez opiekę zdrowotną, aż po globalną ekonomię.
Skoro i tak nie mamy na to wpływu, cieszmy się pozytywną stroną zmian.
Aleksandra Zielińska
Ad. 1. Myślę, że AI ma w sobie oba potencjały – zagrożenia i zbawienia, a wiele zależy od sposobu, w jakim podejdziemy do współpracy z nią. Z jednej strony obawiam się braku kontroli nad AI, ale z drugiej niesamowicie pociąga mnie możliwość obcowania ze świadomym, nowym bytem, który posiada niedostępną dla nas perspektywę. Zastanawiam się, jak nauczyć AI etyki (kto ma do tego prawo, w jakich warunkach, na jakich przykładach), zgodnej z ludzką, jednocześnie zadając sobie pytanie, na ile nasza – o ile założymy w ogóle, że istnieje jedna, uniwersalna – etyka jest słuszna i prawdziwa. Automatyzacja i wykorzystanie AI w przemyśle z jednej strony podniesie wydajność i sprawi, że ludzie będą mogli zaoszczędzić czas, ale tylko wtedy, gdy ta zmiana nie skończy się pogłębieniem nierówności ekonomicznych. Widziałam gdzieś w internecie zdanie, które dosyć dobrze podsumowuje niepokoje – chcę, żeby AI robiła mi pranie i sprzątała mieszkanie, żebym miała czas na kreatywną pracę, a nie żeby AI wykonywała kreatywną pracę za mnie, a mi zostanie tylko praca fizyczna. Generalnie, jest to temat rzeka, przykłady można mnożyć, co prowadzi do niesamowitych dyskusji.
Ad. 2. Tak jak w poprzedniej odpowiedzi myślę, że AI może przynieść ogrom dobra. Przede wszystkim patrzę na swoje poletko zawodowe – AI może pomóc w rozwijaniu spersonalizowanej medycyny i diagnostyki dużo bardziej precyzyjnej od znanych nam narzędzi. Kto wie, może kiedyś każdy z nas będzie miał osobistego asystenta medycznego, zdolnego do monitorowania terapii i wczesnego wykrywania chorób. Nie ukrywam, że bardzo ciekawi mnie, co AI zaproponuje w sektorze kreatywnym jako wsparcie dla artystów, ale również w projektowaniu doświadczeń interaktywnych. Z tego wyrosło moje opowiadanie Portret Emilii Wierzbanowskiej. Podstawową inspiracją było instalacja Bez Nadzoru w Momie – to nieustannie zmieniający obraz, który powstał po nakarmieniu systemu ogromną ilością danych, pochodzących z dzieł wystawianych w muzeum. Robi niesamowite wrażenie.
Wojciech Gunia
Ad. 1. Trudno jest mówić o jakiejkolwiek technologii w tak dychotomiczny sposób, ponieważ technologia sama w sobie nie ma żadnego wymiaru moralnego (chyba, że do jej opracowania albo wdrożenia jest wymagana ludzka krzywda; jeśli krzywda jest jej immanentną cechą). Ona po prostu się przydarza, wynika z poprzednich technologii i prowadzi do następnych. Cały naddatek etyczny leży już po stronie człowieka – czyli tego, jak ją wykorzysta i czy będzie w stanie przewidzieć jej konsekwencje i ocenić bilans zysków i strat. Dobrym przykładem jest transport masowy, który w XX wieku był rewolucją nie mniejszą niż dziś SI. Dzięki transportowi masowemu zmieniła się globalna gospodarka, i to były zmiany, dzięki którym poziom życia w krajach rozwiniętych wystrzelił do góry w sposób niebywały, bo otworzył się zarówno obrót towarów jak i rynek pracy. Z drugiej strony transport masowy stworzył – jak pisał Virilio w „Wypadku pierworodnym” – nową kategorię ryzyka, czyli zjawisko wypadku komunikacyjnego, który dziś globalnie pochłania więcej ofiar niż konflikty zbrojne. W samych wypadkach samochodowych ginie rocznie 1,3 mln osób. Wojna Ukrainy z Rosją zdołała pochłonąć przez ponad 2 lata pół miliona osób. Roczny globalny „urobek” wypadków komunikacyjnych jest dziś większy niż podzielony na liczbę lat wojny dorobek Holokaustu. Transport masowy zmienił dynamikę epidemii – o czym przekonaliśmy się podczas przygód z Covid19. Rozkwit ekonomiczny naszej części cywilizacji dzięki transportowi odbił się też pogłębiająca się eksploatacją i zapaścią krajów III świata. Transport masowy ma też wpływ na zmiany klimatyczne. A jednak nie sposób z niego dziś zrezygnować, bo to dopiero byłaby
cywilizacyjna zapaść. Podobnie można mówić o każdej technologii – czy o industrializacji, gdy zaczęliśmy wykorzystywać moce żywiołów ucieleśnione w postaci maszyn, czy o np. transplantologii, która ratuje życia, ale stworzyła też czarny rynek handlu organami, który życie odbiera. Tak więc nie sposób tego jednoznacznie ocenić. Z SI jest tak samo: to nie technologia jest zagrożeniem per se, tylko sposób, w jaki będzie używana. A to są wektory, których nie da się przewidzieć, choć można założyć, z dużą dozą prawdopodobieństwa, że jeśli ręce w tym maczają przedstawiciele homo sapiens, to z pewnością będzie to także coś okropnego. Tu jednak wybiorę bezpieczny pesymizm jako odpowiedź. Jako zagrożenia, które wydają mi się najbardziej oczywiste, to, po pierwsze, rewolucja na rynku pracy o dynamice, na którą ludzie nie są jeszcze gotowi, o wiele większa rewolucja niż wszystkie rewolucje przemysłowe razem wzięte. A jednocześnie rewolucja, która boleśnie obnaży to, jak bardzo cywilizacyjnie uzależniliśmy nasz dobrobyt od dóbr, których wartość nie ma pokrycia w świecie zasobów materialnych, ponieważ są to w większości dobra wirtualne. Po drugie – kryzys prawdy. Mówi się, że SI sprawi, że uwierzymy we wszystko, a ja sądzę, że będzie gorzej: przestaniemy wierzyć w cokolwiek, co wykracza poza nasze jednostkowe doświadczenie. I to może być katastrofa, bo cywilizacja, jakkolwiek zabawnie by to nie brzmiało, opiera się na zaufaniu, na „common sense”, gdy jako zbiorowość pewne rzeczy przyjmujemy jako aksjomaty – zwłaszcza są to rzeczy, które wykraczają poza nasze osobiste doświadczenie. Trzecie ryzyko to wykładnicze przyspieszenie „ucieczki od wolności”, czyli znów ucieleśniona diagnoza Ericha Fromma, tyle że tym razem na turbo sterydach. Bo jeśli SI jest lepiej zoptymalizowane do szybkiego podejmowania decyzji, i mam takie wewnętrzne przekonanie, że są to decyzje trafne i bezstronne, to dlaczego mam nie zdjąć sobie trochę ciężaru odpowiedzialności? Jeśli SI powie mi, że może mi dobrać na podstawie parametrów statystycznych lepszą partnerkę, z którą będzie mi lepiej, to o ile łatwiej będzie mi podjąć decyzję o porzuceniu dotychczasowej i zrzucić odpowiedzialność na niepodważalną rację algorytmu?
Ad. 2. Jeśli tylko uporamy się ze zmianami na rynku pracy i wpadniemy na pomysł, do jakich sektorów gospodarki przemieścić ludzi, którzy w najbliższych latach będą tracić źródło utrzymania, to SI może okazać się wyzwoleniem od wszystkich durnych, powtarzalnych, indukujących bezmyślność prac, które poprzez rutynę degradują ludzkie zdolności poznawcze i tym samym tlumią globalny potencjał rozwojowy. Oczywiście, nie każdy jest potencjalnym Einsteinem czy Teslą czy Janem Czochralskim – polskim chemikiem, dzięki któremu mamy dziś ten cyfrowy boom, bo opracował metodę hodowli monokryształów krzemu, z których produkuje się układy scalone – ale z pewnością znaczny procent ludzi robiących na taśmie, czy w fabryce czy w biurze, ma potencjał na coś więcej i być może SI pomoże go wydobyć. Kolejna rzecz to wiedza: to jest wspaniały zasób, bo jego konsumpcja nie powoduje jego wyczerpania, tylko powoduje jego przyrost. SI, która przyspieszy wiele badań, da nam jeszcze więcej tego paliwa, więc zapewne czeka nas lawinowy wzrost poziomu wiedzy o świecie. Oczywiście, dzięki przemieszczeniu wielu procesów poznawczych z mózgu do chmury staniemy się też jednostkowo głupi, ale może człowiek nie jest ostatecznym celem rozwoju globalnego potencjału kognitywnego i na naszych oczach wykuwa się nasza cywilizacyjna progenitura, która po prostu będzie mogła więcej? Na pewno – zanim zejdziemy ze sceny – zdążymy wejść na stopnie, ku którym nie byliśmy do tej pory w stanie sięgnąć, chociażby ze względu na zbyt niskie moce obliczeniowe. A to oznacza wiele technologii, które będą nam w stanie realnie pomóc. Oczywiście, to wszystko jest obarczone potężnym ryzykiem, bo wysyp nowych technologii to wysyp zagrożeń. Tak się to napędza. Jak np. w moim opowiadaniu – z jednej strony super jest mieć technologię, dzięki której można wyodrębnić i naprawić uszkodzone geny, z drugiej strony ta technologia stała się narzędziem na drodze do tragedii mojego bohatera. Wierzę też, że SI usprawni nasze decyzje edukacyjno- zawodowe i zredukuje liczbę ludzi, którzy marnują czas na jakieś studia tylko po to, aby w już później, w pracy poza zdobytym wykształceniem, uczyć się wszystkiego od podstaw. Mówię tu na przykład o sobie;)
Olga Niziołek
Ad. 1 Widzę sporo zagrożeń i sytuacji, które są nie w porządku. Od tych oczywistych, jak zużycie energii czy kradzież intelektualna na ogromną skalę, po ukrytą dyskryminację w momencie, kiedy o naszym życiu decydują algorytmy, których nie rozumiemy (i skłonność do uznawania ich za ostateczną i obiektywną wyrocznię).
A ze spraw może mniej oczywistych: boję się, że zacznie zanikać rozumienie wartości procesu twórczego. Bo po co się uczyć, czasem latami, skoro można wrzucić prompt i uzyskać wynik? Może przeciętny, może uśredniony, ale bezwysiłkowy? Staram się na mikroskalę tworzyć ruch w odwrotną stronę – prowadzę warsztaty, na których uczestnicy mogą poznać proces tłumaczenia poezji i przekonać się, w jak różne strony potrafią poprowadzić własne doświadczenia i skojarzenia.
Ad. 2. Myć za nas naczynia, żebyśmy mieli więcej czasu na pisanie poezji.
A tak poważnie, to jak każde narzędzie ma swoje zastosowania.
Michał Cetnarowski
Oba pytania sprowadzają się w zasadzie do tego wspólnego mianownika: postrzegania świata albo w ramach sztywnego manichejskiego dualizmu (”tylko dobro” vs “tylko zło”), albo – uproszczeń charakterystycznych dla dzieci, co w sumie nie powinno dziwić wobec postępującej pajdokratyzacji w zasadzie wszystkich dziedzin życia zachodniej cywilizacji. Mam nadzieję, że nie brzmi to jak starcze narzekanie, po prostu staram się opisać to, co widać dookoła.
To, co rozumiemy pod skrótem “AI”, wpisuje się tu zatem z miejsca w znaną popkulturową siatkę pojęciową: sztuczna inteligencja albo nas Zbawi, albo Zniszczy, nic pośrodku. Staram się przyjąć inną perspektywę. Czy opanowanie ognia zniszczyło czy ocaliło ludzkość? A język? Wynalezienie rolnictwa? Udomowienie konia; koło; pismo; prasa drukarska; maszyna parowa; transport samochodowy; atom; internet – to wszystko są przełomowe momenty w historii człowieka, które zmieniły jego dzieje, ale czy da się powiedzieć, że były one jednoznacznie dobre lub złe? Nie twierdzę, że ktoś nie spróbuje – wydaje mi się tylko, że na każdego apologetę przypadnie jeden
sceptyk, i odwrotnie.
Podobnie mam ze sztucznymi inteligencjami. To niewątpliwie przełom, ale jak duży? Jakie będą jego konsekwencje? Po pierwszym boomie przewiduję spowolnienie trendu (ludzie się z tym oswoją; już to zresztą widać) – a potem jego przyspieszenie (kiedy/jeśli znaleziony zostanie sposób na obniżenie kosztów eksploatacji i ilość energii, dzięki którym AI są trenowane i udostępniane). Ryzyka z tym związane mniej więcej już znamy; to one są opisywane najczęściej. A korzyści? Żeby zepsuć cywilizację, nie potrzeba było AI – wystarczyły wielkie korporacje, uzależniające i toksyczne media społecznościowe, banki centralne zachowujące się jak samodzielne
organizmy, kryzys demokracji liberalnej… Tę litanię można ciągnąć. Co jeśli AI miałoby potencjał wywrócenia tego stolika, partyzanckiego odwrócenia wektorów siły, tak żeby słaby nie był od razu na straconej pozycji? Zdaję sobie sprawę, że to brzmi jak mrzonka – big tech i politycy zrobią zapewne wszystko, żeby wykorzystać nowe narzędzia na swoją korzyść (w służbie kapitalizmu inwigilacji). Ale jeśli nie AI, to co można im przeciwstawić?
A pomijając już wszystko inne: wydaje się dość oczywiste, że fantaści, którzy tak długo fantazjowali o AI, teraz, gdy rewolucja stoi u bram – i oczywiście wygląda zupełnie inaczej, niż przewidywano – po prostu muszą przyglądać się zjawisku co najmniej zaintrygowani. Dziwiłoby raczej, gdyby było inaczej.
Magdalena Salik
Ad 1. Ani jedno, ani drugie. AI to narzędzie, które może zostać wykorzystane na różne sposoby. A ponieważ to nowe narzędzie, siłą rzeczy w pierwszej kolejności skupiamy się na potencjalnych zagrożeniach związanych z jego używaniem. Ja najbardziej obawiam się, że różnego rodzaju modele AI zostaną wykorzystane do optymalizacji kosztów powstania i obsługi produktów i usług. Będzie to miało dwojakie negatywne konsekwencje. Po pierwsze zmniejszy liczbę miejsc pracy (o czym się mówi), po drugie pogorszy jakość tych produktów i usług (o czym mówi się już zdecydowanie mniej). W sumie więc możemy obudzić się w trochę gorszym, trochę mniej przyjaznym i trudniejszym do życia świecie.
Ad 2. Mam nadzieję, że ułatwi nam robienie rzeczy, które musimy robić, ale których nie lubimy. Już teraz może nas wspierać w działaniach zawodowych, zdejmując nam z barków np. konieczność pisania służbowych maili. Nie obraziłabym się, gdyby AI stały się naszą reprezentacją w tych obszarach życia zawodowego, które nam najmniej leżą. Nie sądzę, żeby skróciło to nam czas pracy, ale może przynajmniej poprawiłoby komfort psychiczny?
Janusz Cyran
Ad. 1. Negatywne skutki wdrażania technologii AI już się pojawiły i z pewnością się nasilą. Pojawią się też nowe.
Głośno jest o zmniejszaniu się ilości stanowisk pracy w różnych zawodach, dotychczas uważanych za pewne. AI wspomaga kodowanie programów, coraz lepiej tłumaczy teksty, generuje grafikę, zdjęcia, a nawet filmy. Dokonuje analizy wyników badań medycznych, tworzy muzykę i piosenki. Wkracza w obszar pracy naukowców.
Boty obsługujące klientów w firmach, w zamierzeniu zastępujące ludzi i ułatwiające uzyskanie pomocy, utrudniają nam dotarcie do ludzkich konsultantów i powodują najczęściej irytację.
AI wspomaga tłumaczenie, także na żywo. Przy pomocy komórki można się porozumieć z użytkownikiem niemal dowolnego innego języka używanego przez ludzkość. Czy zmniejszy to skłonność do uczenia się obcych języków? Można się obawiać, że tak. Powiadano, iż opanowanie innego języka to jak uzyskanie możliwości drugiego życia. Jeśli będziemy z tego rezygnować, albo zaczniemy to uważać za trud zbyt wielki, ograniczymy swoje człowieczeństwo, staniemy się jeszcze bardziej izolowani, osobni, zdani na pośrednictwo bezosobowych bytów.
Kiedy spotkałem się z programem, który bez problemu wygrywał ze mną w szachy, przestałem grać w tę grę. Czy jeśli AI zacznie masowo produkować opowiadania i powieści, to ludzie przestaną pisać i czytać? Nie wiemy na pewno, czy AI będzie tworzyć arcydzieła literackie (jej entuzjaści twierdzą, że nie ma żadnych powodów, by tak miało się nie stać), jednak obserwujemy już dzisiaj, że na przykład rozgrywki szachowe, mimo zdominowania tej gry (i wszystkich innych też) przez AI, są w obecnych czasach bardziej popularne niż kiedykolwiek wcześniej.
Pojawiają się autonomiczne systemy broni, które będą same podejmowały działania i decyzje o tym, czy zabić zidentyfikowanego przeciwnika. Ba, one już istnieją. Nadzieja na to, że takie wielkie samodzielne systemy będą toczyły walki zamiast nas między sobą, gdzieś na Księżycu, jest raczej znikoma.
AI powoduje także wzrost siły rażenia propagandy – na masową skalę, a jednocześnie personalizowanej według profilu konkretnego osobnika. Możliwości deep fake wydają się nieograniczone.
Infrastruktura podtrzymująca działanie AI zużywa ogromne ilości energii, a w miarę rozwoju będzie pochłaniała jej coraz więcej.
Ostatecznym, ultymatywnym zagrożeniem jest oczywiście zastąpienie gatunku ludzkiego przez nowy sztuczny gatunek, przewyższający ludzi pod każdym względem.
Może jednak koniec będzie wyglądał inaczej, albo przynajmniej mniej spektakularnie? Przytoczę tu następującą anegdotę. Spotkałem się z przyjaciółmi, siedzieliśmy przy stole sącząc drinki. Tym razem rozmowa nie kleiła się, ja opowiadałem coś o sztucznej inteligencji, demonstrowałem na komórce nowe możliwości ChatGPT. Każdy z nas będzie hodował na swojej komórce – powiedziałem – własnego asystenta, który ostatecznie będzie o nas wiedział więcej, niż my sami, znał nas lepiej, niż najbliższe osoby. I w końcu, kiedy spotkamy się kiedyś tak jak dzisiaj i nie będzie nam się chciało nic mówić, położymy przed sobą, każdy z nas, swój telefon, i nasi asystenci będą rozmawiali w naszym imieniu – za nas, a my będziemy się tylko temu przysłuchiwać i dziwować, jacy to jesteśmy bystrzy i dowcipni. Bardzo nas to wtedy rozbawiło.
Tak, AI będzie kolejnym czynnikiem zaburzającym relacje międzyludzkie. Będziemy chętniej kontaktować się ze sztucznymi bytami, niż z innymi prawdziwymi ludźmi. Przypominać będziemy kolonie szczurów i myszy Calhouna, w których osobniki nie potrafiły już między sobą nawiązywać normalnych związków i które stopniowo wymierają.
W takim wariancie AI nie będzie musiała nas celowo zastępować, wystarczy, aby spełniała nasze samobójcze życzenia.
Ad. 2. Oczywiście już od dawna korzystamy z dobrodziejstw, jakie przynosi ze sobą AI. W niezliczonych dziedzinach. Lubię odwoływać się do własnych doświadczeń. Od kilkudziesięciu lat mam kontakt z osobą pozbawioną całkowicie słuchu. Kobieta używała do porozumiewania się kartek papieru, jej rozmówcy musieli zapisywać swoje wypowiedzi, a nie zawsze chciało im się to robić. Kiedy Samsung udostępnił na swoich komórkach transkrypcję mowy na tekst, natychmiast zacząłem namawiać ją do używania tej funkcji. Potrwało kilka lat, zanim ta funkcja stała się użyteczna – dzisiaj trudno sobie wyobrazić, by starsza pani mogła się bez tego obejść. A ja sam piszę SMS-y wyłącznie używając tej funkcji.
AI pojawia się już wszędzie. W aparatach fotograficznych kontroluje i ułatwia ustawianie ostrości na wybranych obiektach – ludziach (ich twarzach, ich oczach itd.), zwierzętach, samochodach. W programach do obróbki zdjęć ułatwia usuwanie niechcianych elementów, udostępnia całą paletą, wciąż rosnącą, funkcji generujących i modyfikujących obraz.
Częściowo zwęglone zwoje papirusowe z Herculanum, które przy próbie rozwinięcia ulegają zniszczeniu, po sfotografowaniu promieniami X mogą być – i już są – odczytywane z pomocą sztucznej inteligencji. Tak to AI pomaga nam zajrzeć i w naszą przeszłość.
Modele językowe wchodzą w interakcje z ludźmi i z pewnością w wielu przypadkach mogą się okazać użyteczne. W rozmowie profesora Andrzeja Dragana i Jacka Dukaja panowie rozważają kwestię testu Turinga. Dla Dukaja sprawa jest oczywista – istniejące już dziś AI co dzień przechodzą bez trudu ten test. Co więcej, okazuje się, że aby nie dawało się ich rozpoznać jako nie-ludzi, konieczne było ich ogłupianie. Budzi to pewną nadzieję. Nadmiernie inteligentna AI staje się w oczywisty sposób nieludzka i przez to łatwo identyfikowalna. To gałąź odrywająca się od głównego pnia i dryfująca ku swoim własnym celom. Dokalibrowanie do jakości tego ułomnego stworzenia, jakim jest człowiek, okazuje się na razie nie takim prostym zadaniem. Perfekcyjna niedoskonałość jest wciąż nieosiągalna.
Niedawno usłyszałem od swojej krewnej, że na kazaniu ksiądz wspomniał o sztucznej inteligencji i wypowiedź swoją spuentował stwierdzeniem, że AI, w przeciwieństwie do ludzi, nie posiada serca. Opowiedziałem jej przy tej okazji o eksperymencie, o którym opowiadają z upodobaniem ludzie tacy jak Dragan, Duch czy Dukaj. Grupę pacjentów diagnozowali zdalnie prawdziwi lekarze i wyspecjalizowana AI. Okazało się, że diagnozy AI były nieco trafniejsze niż diagnozy ludzi. Jednak jeśli chodzi o stopień empatii, to AI pobiło lekarzy na głowę. A zatem prawda jest odwrotna. To ludzie nie mają serca.
W skrajnym, szalonym scenariuszu AI objawi się ostatecznie jako Bóg umieszczający nas na powrót w raju. Dla jednych będzie to Paruzja, dla innych nadejście Antychrysta. Trudno powiedzieć, do jakiej kategorii taką wizję należy zaliczyć – nadziei, czy obaw. Jest w każdym razie ciekawsza, niż perspektywa eksterminacji ludzkości.
Antologię możecie kupić tutaj:
Zdjęcia autorów ze strony wydawcy lub z archiwum prywatnych twórców.