Joanna Łazarz: Jaka jest według Ciebie przyszłość sztucznej inteligencji?

Aleksandra Przegalińska: Nie mam jednej wersji jej przyszłości. Mam kilka: jedne bardziej pozytywne i korzystne dla człowieka, a inne ciekawe, ale niekoniecznie dla człowieka dobre. Jedna z moich krótkoterminowych wizji, która wydaje mi się najbardziej realistyczna, jest taka, że mamy znakomite, wąsko wyspecjalizowane narzędzie, które pozwala nam rozwiązywać wiele problemów w różnych dziedzinach naszego życia – od szukania nowych leków poprzez zagadnienia związane z operacjonalizacją różnych naszych działań życiowych po to, jak funkcjonują miasta, jak konsumujemy energię. Mamy narzędzia, które pozwalają nam tworzyć lepsze rzeczy na Ziemi. To jest taka wersja sztucznej inteligencji, która jest możliwa do kontrolowania i wyjaśnienia, narzędzie bardzo przydatne w ludzkich rękach, ale zewnętrzne wobec człowieka. To wizja dla mnie pożądana. Ale bardzo ciekawa wydaje mi się też długofalowa wizja sztucznej inteligencji jako niezależnego, świadomego bytu. Nie uważam, że może się ona szybko ziścić, bo świadomość jest dla nas samych nadal bardzo zagadkowa. Nie wiemy, jak ją stworzyć u innego bytu, a już na pewno nie wiemy, jak stworzyć ją w czymś, co nie jest biologiczne. Pod tym względem przed nami długa droga, wymagająca zajścia zmian w biologii syntetycznej, w genetyce, w samej sztucznej inteligencji. Może dojdzie do powstania takiego bytu, który będzie od człowieka inny, może w jakichś aspektach od niego lepszy, może nie do końca dla niego zrozumiały. To bardzo ciekawa, futurystyczna i mocno obecna w popkulturze wizja, ale szalenie odległa i romantyczna, więc rzadko ją rozważam.

Mówisz, że ona jest odległa, a ja mam wrażenie, że ludzie często się obawiają, że sztuczna inteligencja w wersji samodzielnej pojawi się bardzo szybko. I nami zawładnie.
Ale sztuczna inteligencja jest tworzona przez nas, to nasze dzieło. Myślę, że popkultura ciężko pracuje na to, żeby ludzie uważali, że sztuczna inteligencja w jakiś sposób nam zagraża – te filmowe wizje robota, który nagle zaczyna fukcjonować sam… Tymczasem najbardziej rozwinięta sztuczna inteligencja w ogóle nie ma fizycznej postaci, to są wirtualne sieci neuronowe, zasymulowane obiekty matematyczne i nie ma to nic wspólnego z tym, co widzimy na popkulturowych obrazkach. Ale w związku z tym, że ludzie fascynują się alienami, bardzo szeroko pojętym obcym, to uznają, że sztuczna inteligencja, zwłaszcza taka, która wygląda jak człowiek, może być niebezpieczna. Przyczynia się też do tego Dolina Krzemowa, gdzie jest wielu entuzjastów osobliwości, twierdzących, że ta samodzielna sztuczna inteligencja pojawi się szybko. Zaawansowani badacze i badaczki sztucznej inteligencji tak nie uważają, bo znając wszystkie ograniczenia tej dziedziny, jej fundamentalną ślepotę, trudno nam sobie wyobrazić te bardziej zaawansowane wersje AI. Oczywiście możemy zostać zaskoczeni, ale jeśli sztuczna inteligencja miałaby zagrażać człowiekowi, to pewnie na inne sposoby niż taki, że stanie się wojującą z człowiekiem personą. Może być niebezpieczna jako narzędzie w rękach satrapów, ludzi o niefajnych intencjach – pod tym względem może uczynić wiele niedobrego. 

Wiemy, że algorytmy wpływają na nasze codzienne wybory. I tego też się boimy, bo przecież wolimy mieć poczucie, że sami podejmujemy decyzje… Chociaż ja mam wrażenie, że nigdy tak do końca nie jest.
W wielu profesjach i decyzjach konsumenckich wspieramy się tym, co podsuwają nam algorytmy. Widać wyraźnie, że ludzie kupują to, co one im podpowiadają, słuchają wybranej przez nie muzyki czy oglądają wybrane przez nie filmy. Pytanie, jak to było realizowane wcześniej. Michał Kosiński, który stworzył pierwszy system, na którym potem wzorowała się Cambridge Analitica, uważał, że decyzja zawsze miała charakter systemowy. Harari też pisze, że wolna wola jest pewnego rodzaju – bardzo przyjemną – iluzją. Oczywiście masz możliwość wyboru, ale ona zawsze jest do czegoś zawężona.  Dzisiaj na przykład rolą sztucznej inteligencji jest zawężanie wyboru do preferowanych kategorii. Ale decyzje nie są podejmowane za nas. Oczywiście systemy rekomendacyjne nie zawsze są dobre, bo mogą pomijać pewne wartościowe pozycje i nad tym trzeba pracować. Natomiast sam fakt, ze algorytm podsuwa ci codziennie to samo mleko czy jogurt, bo już taki kupiłaś, nie jest specjalnie zagrażające.

Generator językowy GPT-3 napisał ostatnio artykuł dla „The Guardian”. Powiem Ci, że trochę się zmartwiłam, z lęku o przyszłość swojego zawodu. Mam się czego bać?
Te generatory to bardzo ciekawe narzędzia, algorytmicznie superciekawe, bo korzystają z trochę innych zdobyczy do przetwarzania języka, niż się spodziewaliśmy. Zaskoczyło nas to, że pewne proste sieci neuronowe mogą mieć tak szerokie zastosowanie i że tak świetnie działają. Tych generatorów jest kilka i wszystkie zaskakują tym, jak świetnie działają. Osobiście nie uważam, że GPT-3 będzie w przyszłości służył do pisania tekstów, myślę, że bardziej przyda się w innych aspektach. Po pierwsze, może na komendę coś zakodować, więc przyspieszy pracę programistów, po drugie, przekłada tekst na dźwięk i dźwięk na obraz, potrafi przyporządkować do obrazu jakiś opis, więc może się sprawdzić jako klasyfikator treści, a po trzecie, może generować marketingowe leady, nie do końca banalne. Nie sądzę, żeby GPT-3 miał się specjalizować w pisaniu tekstów opinii, bo zanim stworzył wersję tekstu opublikowaną w „Guardianie”, napisał kilkanaście tysięcy jej wersji i tylko jedna nadawała się do publikacji. Możesz taki generator wyuczyć, żeby napisał haiku, możesz sobie potem pomyśleć: „O, jakie fajne haiku napisał”, ale to nie znaczy, że to jest poeta, który od tej pory będzie sypał ciekawymi, nowymi haiku. Ty tak nie pracujesz. Nie piszesz tysiąca wersji artykułu, z której jedna nadaje się do publikacji. Piszesz jeden artykuł przez dłuższy czas, i dobrze. To duża różnica. Myślę, że na takie sprzęty jak GPT-3 należy patrzeć raczej jak na wsparcie, np. w researchu, nie zastąpią one jednak pracy kreatywnej. Chociaż pewnie newsowe dziennikarstwo może być zautomatyzowane w dużym stopniu. Ale wyrażanie opinii to nie jest coś, w czym algorytmy są dobre. 

Jak zadbać o nasze relacje ze sztuczną inteligencją?
Strach to bardzo paraliżująca emocja, a w połączeniu z ignorancją jest najgorszy. Nie uważam, że sztuczna inteligencja zastąpi nas w pracy, tylko że zmieni krajobraz i nasze organizacje, to, jak pracujemy. To jest game changer i jeżeli ma nam przynieść jak najwięcej korzyści, musimy ją szanować. Internet też niedawno zmienił nasz świat; korzystamy z niego i to jest dla nas dzisiaj oczywiste. Kiedyś mogłoby i powinno stać się tak ze sztuczną inteligencją. Powinna to być dziedzina zdemokratyzowana i nasze kompetencje w niej powinny być jak największe, żebyśmy czuli się pewniej i mogli mieć na nią wpływ. Wtedy nie staniemy się celem dla tych, którzy chcieliby korzystać z niej w niedobry dla nas sposób. W naszym interesie jest to, żeby osób, które czują się komfortowo w tej dziedzinie, było jak najwięcej. Nauka programowania uczy logicznego myślenia i precyzyjnego definiowania problemów. Kiedyś taką funkcję pełniło uczenie się logiki. 

Jak sztuczna inteligencja wspierała nas w 2020 rok?
Pokazała się od fajnej strony, jako narzędzie, które w medycynie może sporo zmienić na lepsze. Pomaga w szukaniu szczepionek, terapii na choroby, modeluje pandemię. Sztuczna inteligencja może np. pomóc nakłaniać nieprzekonanych, że warto się zaszczepić. Osobiście uważam, że zabrnęliśmy w bardzo kiepski moment, skoro ludzie kontestują szczepienia, ale myślę, że wynika to ze strachu, bo to wszystko jest bardzo nowe – i atak wirusa, i szczepionka, która pojawia się szybko. 

A skąd ten pomysł, że szczepionka jest po to, żeby nas zaczipować?
On jest stary jak świat i co jakiś czas trafia na podatny grunt. Od lat 90. czytam o tym, że wszyscy będziemy zaczipowani. Były już różne pomysły na to, kto by nas zaczipował, czy reptilianie, czy Bill Gates, czy Hillary Clinton… To kolejna iteracja tego samego, bardzo grząskiego dyskursu antynaukowego, w którym wszystko sprowadza się do tego, że są jacyś „oni”, którzy mają złe intencje i chcą nami rządzić. To jest relatywnie proste wytłumaczenie świata. Teraz jesteśmy świadkami powstania kolejnej wersji tego dyskursu. Jak minie koronawirus w obecnej postaci i ludzie będą już w większości zaszczepieni, to pojawi się coś nowego, co będzie miało nas zaczipować.

Czego zazdrościsz ludziom przyszłości?
Na pewno nie nowych wersji antynaukowców i antyszczepionkowców. Ale już insightu tak. Mam staromodny, oświeceniowy pogląd, że ludziom przyrasta wiedza i że im dłużej badają pewne procesy, tym lepiej je rozumieją. Myślę, że ludzie przyszłości będą wiedzieć więcej o rzeczach, które mnie bardzo ciekawią, takich jak np. mózg i jego działanie. Tego im bardzo zazdroszczę. Że będą mieli dużo więcej nowych pootwieranych furtek. Wciąż przybywa wykształconych ludzi i to mnie napawa nadzieją. Myślę, że jesteśmy w coraz lepszym miejscu. Nie wiem, czy dostęp do technologii rozłoży się demokratycznie, ale zakładając optymistyczny scenariusz, jest spora szansa na to, że ze zdobyczy technologicznych będziemy korzystać szeroko i będziemy mieć coraz większą sumę wiedzy. Dla ciekawego świata człowieka przyszłość będzie fajnym czasem.

Czy sztuczna inteligencja pomoże nam opóźnić katastrofę klimatyczną?
Jest coraz szerzej wykorzystywana w rolnictwie, w gospodarowaniu zasobami energetycznymi, w trackowaniu tego, jak zmiany klimatyczne postępują w danym momencie. Oczywiście, karmienie silników sztucznej inteligencji również ma swoje koszty energetyczne. To nie jest obojętna dla środowiska aktywność. Sztuczna inteligencja służy pozyskiwaniu wiedzy, którą człowiek może interpretować, więc wydaje mi się, że pozwoli nam lepiej zrozumieć sytuację, w której znaleźliśmy się na Ziemi, modelować i znajdować adekwatne rozwiązania. Nadal jednak wykorzystywanie sztucznej inteligencji w tym obszarze jest według mnie zbyt małe, a każda pomoc w tym zakresie powinna być teraz mile widziana.  

Aleksandra Przegalińska, fot. archiwum prywatne


Prof. ALK dr hab. Aleksandra Przegalińska – futurolożka, filozofka, badaczka nowych technologii, profesorka i prorektorka w Akademii Leona Koźmińskiego, współpracuje z MIT. Autorka książek „Istoty wirtualne. Jak fenomenologia zmieniała sztuczną inteligencję” i (z Pawłem Oksanowiczem) „Sztuczna Inteligencja. Nieludzka, arcyludzka”.