Maciej Pinkwart
Uczniowie czarnoksiężników
10 października 2024
Pewno nie wracałbym kolejny raz do kwestii sztucznej inteligencji, gdyby nie to,
że Renata, przygotowując się do ewentualnej batalii o jakieś nowotarskie sprawy,
ściągnęła sobie ChataGPT i poleciła mu do opisanego przez siebie casusu
dobrać odpowiednie paragrafy kodeksowe. A potem z zachwytem opowiadała mi, że
Chatowi zajęło to niecałe dwie sekundy.
Nie wierzę w to. Człowiek to nie robot, nie jest w stanie zmierzyć czasu trwania
czegoś krótszego niż dwie sekundy. Ale to, że sztuczna inteligencja z
powodzeniem będzie mogła zastąpić już niebawem jeśli nie adwokatów, to radców, a
już na pewno doradców prawnych – pisano od dawna. Bo głównym źródłem „wiedzy”
rozmaitych asystentów internetowych jest to, że zostali oni nakarmieni ogromnymi
bazami danych, całą dostępną w sieci literaturą: fachową, piękną, techniczną,
prawniczą i tak dalej, a stosowne algorytmy nauczyły ich kategoryzować te teksty
i rozróżniać wiarygodne źródła od dyskusji i polemik, a te – od fejków i
świadomych przekłamań. Czy to ostatnie jest na pewno skuteczne i w jaki sposób
skonstruowano takie specyficzne filtry? No, tego właściwie do końca nie wiemy,
możemy tylko polegać na tym, że SI umie się uczyć, czyli nieakceptowane przez
odbiorców odpowiedzi na trudne pytania powoli eliminuje z wiarygodnych baz. A
więc, niestety, mądrość naszych elektronicznych asystentów w znacznej mierze
musi się opierać na jakże ułomnej naszej, ludzkiej mądrości.
Ostatnio napotkałem na informację o tym, że jednym z kryteriów akceptacji przez
nią odpowiedzi na pytania jest ich frekwencja w sieci. Im więcej takich-a-takich
stwierdzeń, tym dla SI jest to bardziej wiarygodne. I to mnie dopiero
przeraziło. W dodatku informacji tej towarzyszył opis akcji jakichś grup
młodzieżowych, dla beki wpisujących, milionami ponoć, w internecie
stwierdzenie, że 2 + 2 = 5. Ot, tak, po prostu, żeby sztucznego inteligenta
zdezorientować i sprawić, że stanie się skrajnie niewiarygodny. Nie wiem, czy to
zabawa, czy dywersja, czy złośliwość, czy współczesny ruch luddystów, którzy na
przełomie XVIII i XIX wieku pod rzekomym przewodem mitycznego Neda Ludda
prowadzili akcję niszczenia maszyn, które miały ich pozbawić pracy. Ale
wyobrażam sobie zorganizowaną działalność farm trolli, wprowadzających do sieci
rozmaite szalone dezinformacje (ziemia jest płaska i unosi się na oceanie na
czterech słoniach, ceterum censeo Ukrainam delandam esse, Jarosław
Kaczyński nie jest świętym geniuszem, jedzcie brokuły, Kamala
Harris jest Marsjanką…) już nie dla beki, tylko dla osiągnięcia zamieszania
i jakichś konkretnych korzyści.
Autentycznie zatroskani ludzie, którzy do sztucznej inteligencji odnoszą się
sceptycznie, ostrożnie lub wręcz wrogo, prezentują rozmaity stopień obaw przed
przyszłością z udziałem plastikowo-metalowych super inteligentnych geniuszy,
którzy opanują Ziemię i odeślą nas z powrotem na drzewo, albo zgoła wymordują,
by samemu pociągnąć dalej furkę ewolucji. Te obawy – od hollywoodzkich strachów
przed rządzącą światem bezosobową siecią Skynet (filmy z serii o
Terminatorze), po obawę o utratę pracy przez radców prawnych, lekarzy i
ekspedytorów paczek w Amazonie czy pacjentów, których ma operować robot w
sytuacji, kiedy na przykład zaniknie zasilanie elektryczne – w głównej mierze
kreowane są na naszej antropomorfizacyjnej wizji przyszłych inteligentnych
maszyn. Trudno jednoznacznie stwierdzić, że obawy te nie mają jakiegoś
racjonalnego uzasadnienia, ale trudno też zapomnieć, że żadne z tych zagrożeń w
dającej się przewidzieć przyszłości nie jest realne, bo jak dotąd chyba nie jest
możliwe funkcjonowanie SI bez udziału człowieka. Ona ciągle jeszcze siedzi
grzecznie w komputerach i smartfonach i działa tylko wtedy, kiedy się ją spuści
ze smyczy.
Nie można oczywiście wykluczyć, że ze względów marketingowych zaczną powstawać
piękne robocice-asystentki, wyposażone nie tylko w możliwości zaspokajania
rozmaitych potrzeb klientów (parzenie kawy, recytowanie Szymborskiej, taniec na
rurze, cytowanie Biblii czy kodeksu pracy), ale i umiejętności medyczne,
psychologiczne czy techniczne, że ludzie będą kupować inteligentne i
niezniszczalne sztuczne psy, koty czy konie (jeden z takich koni galopował nawet
po Sekwanie podczas ceremonii otwarcia Igrzysk Olimpijskich w Paryżu) – ale
będzie to margines całej sprawy. Tak jak efemerydą
okazały się japońskie elektroniczne zwierzątka Tamagotchi, które trzeba
było karmić, naciskając odpowiedni guziczek.
Jak dotąd, sztuczna inteligencja to tylko (aż?) zorganizowane przez wymyślone na
razie przez ludzi algorytmy znajdujące się w sieci internetowej miliardy bajtów
informacji, które działają w zasadzie tylko wtedy i tylko w tym zakresie, jakie
określi uruchamiający je człowiek. Nie mają żadnego fizycznego bytu i istnieją
tylko wtedy, kiedy nam są potrzebne. Wyłączenie programu czy wielokrotnie
przywoływane w literaturze wyciągnięcie wtyczki komputera wymusza ustanie ich
działania. Czy zawsze tak będzie? Czy nie grozi nam sytuacja, pokazana przez
Stanleya Kubricka w Odysei kosmicznej 2001, czy wcześniej przez
Stanisława Lema w opowiadaniu Młot, kiedy to kierujący statkiem
kosmicznym nieistniejący przecież fizycznie robot sprzeciwia się człowiekowi? To
wymagałoby istnienia czegoś w rodzaju sztucznej samoświadomości, o której na
razie nie słychać i nawet trudno sobie ją wyobrazić w odniesieniu do tych
bajtów, bezpostaciowo hulających w chmurze internetowej. Nawet gdybyśmy te
inteligentne bajty ubrali w jakieś sztuczne ciało i wyposażyli w umiejętność
myślenia i rozumowania, która pozwoliłaby SI przejść test Turinga – jak na razie
trudno mi sobie wyobrazić, by taka upostaciowana inteligencja przeszła test
lustra, czyli zidentyfikowała swoje odbicie jako jej własny obraz i potrafiła
odróżnić siebie od reszty świata.
Jasne, że kiedyś ludzkość nie wyobrażała sobie nie tylko sztucznej inteligencji,
komputerów, Netflixa czy lodów o smaku bekonu, ale nawet jakiegokolwiek pojazdu
na kołach, bo naszymi inspiracjami było tylko to, co powstało w naturze. Ba! Ale
– gdyby pierwotna prabakteria umiała myśleć – czy potrafiłaby wyobrazić sobie
Marylę Rodowicz, śpiewającą w sylwestra w Zakopanem piosenkę o tym, że był maj i
pachniała Saska Kępa?
Mówi się, że gdy każdy uczeń ma w smartfonie cyfrowego asystenta, zadawanie prac
domowych jest bez sensu, bo wszyscy pozostawią tę robotę sztucznej inteligencji,
no a jej nauczyciel przecież nie będzie stawiał ocen. Więc trzeba tego zabronić,
a prace domowe zlikwidować, by uniknąć kompromitacji, że SI w smartfonie będzie
miała większą wiedzę niż pan psor. Cóż, jak mówił starożytny rabin Ben
Akiba, cytując Księgę Koheleta – wszystko już było. Choć nie zawsze, a
już na pewno nie zawsze tak samo. Arystoteles w swojej Akademii z pewnością nie
zadawał prac domowych i nie stawiał ocen. A ja w podstawówce dostałem kiedyś na
polskim dwóję z wypracowania z uwagą: nie wolno pisać długopisem. W
ostatnich latach uczniowie przysyłali mi swoje teksty mailem lub Messengerem.
Później konfiskowano nam w szkole elektroniczne kalkulatory, bo trzeba było
umieć liczyć na piechotę i przekonywano nas, że to będzie niezbędne w życiu.
Dobrze, że tego nie słyszeli młodzi ludzie pracujący w sztabie NASA.
Innym zagrożeniem – zapewne znacznie groźniejszym – jest to, iż owe przepastne
zbiory danych, które są źródłem mądrości SI, przechowywane w chmurze tak
naprawdę zlokalizowane są w ogromnych serwerowniach, usytuowanych na kilku
kontynentach – głównie w krajach trzeciego świata, w opuszczonych kopalniach, na
pustyniach czy, niestety, w miastach. Także w Warszawie. Grzeją i hałasują, a
największe z nich pożerają tyle energii, ile trzy polskie województwa… Już dziś
internetowe chmury, ulokowane jak najbardziej na ziemi, zużywają 3 % światowych
zasobów energii elektrycznej. Wielcy gracze w tej branży planują dla zasilania
serwerów uruchomienie własnych elektrowni atomowych.
Ale prawdziwe niebezpieczeństwo dla rozwoju ludzkości nie polega na tym, że
będziemy w życiu prywatnym i w pracy posługiwać się coraz nowocześniejszym
sprzętem, tylko na tym, że nie będziemy się umieli nim posługiwać mądrze. Ten
problem towarzyszy ludzkości od dawna: ile musiało być śmiertelnych wypadków
przy rozniecaniu ognia? Pewno pamiętamy też opowieść o uczniu czarnoksiężnika
(ballada Goethego, film Disneya, liczne warianty): chłopak, terminujący u
mistrza magii, pod nieobecność nauczyciela zaklęciem zmusza miotłę do
napełnienia wodą wanny, no i świetnie mu się udaje, tylko nie pamięta albo nie
zna zaklęcia odwołującego tamto polecenie, skutkiem czego omal nie ginie w
wodzie, którą miotła – z czasem sklonowana przez rozłupanie siekierą – wciąż do
tej wanny przynosi. Szwedzki filozof Nick Bostrom (ur. 1973) już kilkanaście lat
temu podał przykład, jak nie wchodząc w żadne wojny robotów sztuczna
inteligencja może zniszczyć ludzkość. Oto niewielki przedsiębiorca zleca jej
stworzenie i wdrożenie programu do produkcji spinaczy do papieru. SI
optymalizuje produkcję, łączy się ze wszystkimi fabrykami i zmienia ich program
tak, by zamiast garnków, samochodów, chleba i komputerów produkowały spinacze.
Potrzebuje coraz więcej energii, więc odłącza wszystkie szpitale, szkoły,
pociągi, stacje benzynowe, środki łączności i zabiera im prąd. Góra spinaczy
rośnie, wyczerpują się surowce, więc zmienia algorytm tak, by do wytworzenia
docelowego produktu można było wykorzystać inne zasoby: drewno, minerały,
białko, wreszcie ludzi. Świat się kończy, umiera wreszcie też sztuczna
inteligencja, bo i jej energię i materię pochłonęły spinacze.
Oczywiście, pomysł jest absurdalny i taki miał być: gdyby zamiast spinaczy
Bostrom kazał SI produkować pistolety Glock 17 czy kombajny John Deere może ktoś
podjąłby z tym merytoryczną polemikę, co odsunęłoby podstawowy problem na bok.
Jak każdy humanista i neptek w dziedzinie techniki jestem wielkim fanem nowinek
technologicznych. I jestem tak stary, że nie przeraża mnie wizja przerobienia na
spinacze. W ostatnich dniach kwestia spinaczy powróciła w mediach, ale
przypisano ją wybitnemu informatykowi, mieszkającemu w Kanadzie tegorocznemu
nobliście z dziedziny fizyki Geoffreyowi Hintonowi (ur. 1947). Na wszelki
wypadek o te spinacze zapytałem swojego elektronicznego asystenta. Sprostował,
że twórcą tej teorii (którą skrótowo opisał) jest Nick Bostrom. Zajęło mu to
może trzy sekundy.
Co do mnie, uważam, że hipoteza Bostroma jest wtórna – znów! – wobec naszego
genialnego Lema, który w Dziennikach gwiazdowych (1954 r.!), w
sprawozdaniu z podróży dwudziestej czwartej opisuje pobyt na pewnej planecie,
gdzie wskutek zlecenia władz zainstalowano machinę, która miała pomóc w
zoptymalizowaniu życia ludzi, zaprowadzeniu ładu i doskonałej estetyki. Efektem
tego było przerobienie wszystkich mieszkańców na estetyczne kolorowe krążki,
które zostały porozkładane w piękne wzory na całej planecie. Machina (której
konstruktor nie wiedział jak będzie ona działać, bo zadał jej tylko ogólne i
docelowe zadanie i sam stał się jednym z pierwszych kolorowych krążków) nie
stosowała żadnego przymusu i nazywała się
Dobrowolny
Upowszechniacz Porządku Absolutnego, a mieszkańcy, wierzący w kreacjonizm i
opiekę ze strony Wielkiego Indy, sami siebie nazywali Indiotami.