Grinbaum: Ludzki mózg bardzo się różni od sztucznej inteligencji

Czytaj dalej
Fot. FOT. 123RF
Agaton Koziński

Grinbaum: Ludzki mózg bardzo się różni od sztucznej inteligencji

Agaton Koziński

- Sztuczna inteligencja to nie jest broń atomowa, którą łatwo kontrolować. SI można stosować na komputerach domowych, przez co kontrola nad nią jest właściwie niemożliwa. Z tego powodu trudno wyobrazić sobie efektywne moratorium - mówi prof. Alexei Grinbaum, specjalista od sztucznej inteligencji z francuskiego Komitetu Energii Atomowej (CEA)

W naszą rzeczywistość z impetem weszła sztuczna inteligencja (SI). Jak głęboko zmienia ona nasze życie?

To rewolucja. Obserwujemy ją od 2017 r. i nie mam wątpliwości, że należy tę zmianę opisać w ten sposób.

W 2017 r. doszło do przyspieszania prac nad SI, wtedy m.in. komputer wspierany sztuczną inteligencją po raz pierwszy wygrał z człowiekiem w Go.

Tylko proszę nie uważać, że SI zaczęła się w 2017 r. Jej rozwój trwa już od 60 lat - i doprowadził do powstania tych narzędzi, które objawiły nam się w tym roku.

ChatGPT to „gwiazda” ostatnich miesięcy w internecie.

To konsekwencja właśnie tej rewolucji, która nam się objawiła w 2017 r. Wtedy sztuczna inteligencja udoskonaliła metody samouczenia się - właśnie to sprawiło, że dziś jest w stanie zaproponować użyteczne narzędzia.

I teraz narzędzia wykorzystujące SI dokonują rewolucji w kolejnych obszarach naszego życia, choćby zmieniając sposób, w jaki się uczymy albo pracujemy.

Sztuczna inteligencja ma wpływ na wiele obszarów naszego życia. Możemy je podzielić na kwestie ekonomiczne, społeczne, ale też głębsze - antropologiczne czy etyczne. Dzieje się tak, bo po raz pierwszy pojawiły się systemy niezależne od człowieka. Zostały one stworzone przez ludzi, ale działają niezależnie od nich. I to wywołuje zmianę. Skoro te systemy są w stanie pisać teksty, to zmieniają cały rynek pracy związany z tą umiejętnością. I nie chodzi tylko o pisarzy - to dotyczy także prawników, lekarzy, media, itp. Wcale nie oznacza to, że te zawody są skazane na wyginięcie.

Trudno sobie wyobrazić świat bez lekarzy i prawników - SI nie ma szans zastąpić spotkania z drugim człowiekiem.

I te zawody nie znikną - ale każdy z nich będzie ulegał zmianie. Ludzie sami na to zareagują. W miarę jak narzędzia SI będą coraz popularniejsze, zaczniemy inaczej wykonywać poszczególne zadania.

Co znaczy „inaczej”?

To dziś kluczowe pytanie. Sam jestem ciekawy, jak nasze mózgi zareagują na to wyzwanie, w jaki sposób się dostosują do nowej sytuacji. Bo nie ma wątpliwości, że nasze mózgi zaczną pracować inaczej. Ale jak? W jakim tempie dojdzie do tego dostosowania się? Tego jeszcze nie wiemy. Na przykład, gdy pojawiły się telefony komórkowe, nagle przestaliśmy się uczyć na pamięć numerów. Kiedyś każdy z nas znał przynajmniej numery do najbliższych osób. Dziś to anachronizm. Podobnie zresztą jak z liczeniem w pamięci - odkąd każdy z nas ma kalkulator w zasięgu ręki, przestało to być konieczne. To wszystko przykłady zmian, jakie zaszły w naszym procesie uczenia się w ostatnich dekadach.

W którą stronę pójdą zmiany wymuszone pojawieniem się sztucznej inteligencji?

Weźmy przykład z pisaniem tekstów. SI będzie w stanie pisać za ludzi teksty z informacjami - ale nie będzie mogła pisać opinii, bo nie będzie wiedzieć, co człowiek myśli na dany temat. Na przykład, gdy zleci się sztucznej inteligencji napisanie tekstu o głównych bohaterach Rewolucji Francuskiej, ona bez problemu to zrobi. Ale nie zdoła napisać tekstu, w którym trzeba będzie wyrazić indywidualną opinię o Robespierze - bo to jest opinia człowieka, maszyna go w tym nie zastąpi. Nie będzie też w stanie tworzyć poezji - co najwyżej napisze jakieś średnio udane rymy częstochowskie. Sztuczna inteligencja nie zdoła stworzyć czegoś, co ma być piękne albo prawdziwe - bo po prostu nie jest w stanie tego rozpoznać. Ich architektura to uniemożliwia.

Ale jest już wystarczająco zaawansowana, by na przykład odrabiać za uczniów prace domowe czy nawet prace zaliczeniowe. Choćby ten element niesie duże ryzyko wypaczenia procesu edukacji.

Dlatego nauczyciele czy wykładowcy będą musieli wypracować system umożliwiający im odróżnienie pracy napisanej przez ucznia lub studenta od tej, którą jest w stanie stworzyć sztuczna inteligencja. Służyć temu powinny różnego rodzaju znaki ukryte w tekście, które będą wskazywały, że dany artykuł został wygenerowany przez SI. Na przykład co 200 znaków w takim tekście pojawiałaby się niepotrzebna litera „O”. Przy takiej liczbie znaków ludzkie oko go nawet nie zauważy, natomiast maszyna natychmiast dostrzeże taki powtarzający się regularnie wzór - i w ten sposób odróżni tekst pisany przez AI od tego stworzonego przez człowieka. Dziś tego nie ma - ale tego typu rekomendacje pojawią się w propozycjach regulacji sztucznej inteligencji, które przedstawi Komisja Europejska.

Każdy tekst będzie w ten sposób znaczony?

Nie, to nie ma sensu w przypadku tekstów krótkich. Ale gdy jest mowa o dłuższym materiale, on powinien mieć tego typu oznaczenia - właśnie po to, żeby móc go odróżnić od pracy człowieka. Oczywiście, takie rozwiązanie 100-procentowej gwarancji nie da, ale jakąś formą zabezpieczenia by było.

Niepełną. Na przykładzie Rewolucji Francuskiej i Robespierre’a wskazywał pan, w jakich obszarach SI nigdy nie będzie w stanie zastąpić człowieka. Czy rzeczywiście? Większość ludzi na świecie nie ma zielonego pojęcia o tym, kim był Robespierre. Łatwo sobie wyobrazić algorytm, który przygotuje opinię na jego temat - i przedstawi ją jako tekst człowieka. Mało kto się zorientuje. Czy tu nie pojawia się pole do ogromnych nadużyć?

Właśnie dlatego potrzebujemy systemu oznaczania tekstów. Ale wiem, że to tematu nie wyczerpuje, bo też wejście SI stawia pytania choćby o to, jakim tekstom można wierzyć. Często już sam kontekst, w jakim dana informacja się pojawia, może wprowadzać w błąd czy podważać zaufanie. W tym miejscu wychodzi największa różnica między ludźmi i komputerami.

Na czym ona polega?

Dam przykład. Turysta z zagranicy przyjeżdża do Krakowa i pyta sztuczną inteligencję o największe atrakcje miasta. SI mu wszystko dokładnie tłumaczy - a wtedy ten turysta wrzuca kolejne pytanie: „a kto jest prezydentem?”, bez doprecyzowania właściwie czego. Co w takiej sytuacji SI powinna odpowiedzieć?

Wskazać prezydenta miasta.

A dlaczego nie prezydenta Polski? Albo dyrektora muzeum, o którym przed chwilą opowiadała temu turyście? Kontekst ma ogromne znaczenie. Dla maszyny to tylko kwestia algorytmu, natomiast dla ludzi te konteksty potrafią być bardzo złożone. Często znaczenie słowa zmienia sens w zależności od tego, w jakim kontekście się je wymawia albo nawet z jakim akcentem się je mówi. Sztuczna inteligencja tego nie wychwyci, ona słowa traktuje dosłownie, zgodnie z ich słownikowym znaczeniem, ale bez kontekstu, w jakim zostało ono w danym momencie użyte. Pod tym względem ludzki mózg bardzo się różni od SI.

Za sztuczną inteligencją stoją też ludzie, piszący algorytmy. Trzymając się pana przykładu z Krakowem. Przecież gdyby twórca takiego algorytmu tak zaprogramował SI, by ona nie mówiła o zamkach, to ten zagraniczny turysta nieznający miasta nigdy nie trafi na Wawel.

Nie, to niemożliwe. Owszem, każda sztuczna inteligencja ma w sobie niewielki pierwiastek ludzki, poza tym za SI stoją ludzie ją nadzorujący. Ale jednocześnie te maszyny mają umiejętność samouczenia się. Sztuczną inteligencję poddaje się treningowi wrzucając do niej ogromne liczby danych. Oddzielna sprawa, że w tych treningach dominuje amerykański angielski, co sprawia, że SI gorzej sobie radzi z innymi językami. Ale trzeba pamiętać, że ten proces nauki odbywa się według określonych przez ludzi wzorów i schematów, ale akurat w tym przypadku można wprowadzić określone standardy.

Rozmawiamy o stosunkowo prostych zmianach, które przynosi SI. Ale jej potencjał jest dużo szerszy - w dodatku tempo, w jakim te zmiany wchodzą, jest bardzo szybkie, dużo większe niż w przypadku pojawienia się kalkulatorów czy komórek. Czy ludzie będą w stanie nadążyć za tempem tych zmian?

Zgadzam się, że takie kwestie jak numery telefoniczne czy mnożenie dużych liczb to zadanie stosunkowo proste, wąsko zdefiniowane - tymczasem możliwości sztucznej inteligencji są zdecydowanie większe. Ona jest w stanie operować całym językiem, a za jego pomocą przedstawić każdy aspekt życia, od polityki po naszą prywatność. To pokazuje pełną skalę zmiany, którą obserwujemy. A na to nakłada się jeszcze jej prędkość. Porównajmy to ze zmianami w motoryzacji.

Samochody zaczęły się upowszechniać na początku poprzedniego stulecia, stając się standardem obowiązującym właściwie do dziś.

Ale wbrew pozorom wcale nie stały się tym standardem od razu. Jeszcze przez 40 lat od pojawienia się automobili mieliśmy do czynienia z dominacją transportu konnego. Jeszcze przez dwa pokolenia od czasu wejścia do użytku samochodów osobowych, ludzie korzystali z koni - dopiero po tym czasie ostatecznie z nich zrezygnowali. Widać wyraźnie, jak długo trwał ten proces.

Wtedy ludzie mieli czas, by zaadaptować się przeskoku technicznego czy cywilizacyjnego. Teraz zmiany zachodzą zdecydowanie szybciej.

Wcale nie. 100 lat temu też uważano, że zmiana zachodzi zbyt szybko, że nie ma czasu na dostosowanie się do niej - dokładnie na tej samej zasadzie jak dziś mówimy o sztucznej inteligencji. To samo działo się, gdy popularyzowała się kolej w drugiej połowie XIX wieku. Każde pokolenie ma swój przełom - i każde głośno krzyczy, że zachodzi on zbyt szybko. I ma rację. Technologiczne zmiany zachodzą szybciej niż ludzkie umiejętności dostosowywania się do nich. Tego problemu nie da się rozwiązać, to fundamentalny problem, z którym zmaga się ludzka natura właściwie od zawsze.

Francuski filozof Paul Virilio ukuł nawet termin „dromologia”, za pomocą którego nazwał proces wpływu szybkości zmiany na człowieka.

Tempa zmiany nie zatrzymamy. Ale też nie jest tak, że zmiana będzie trwała tydzień. To kwestia pokolenia. I nie wiemy, jakiego rodzaju sztuczna inteligencja wtedy będzie, bo ona również ciągle się zmienia. Najważniejsze jest więc, by nie doprowadzić do przerwania tego procesu ewolucji - choć też kierunku tej ewolucji nie jesteśmy w stanie dziś przewidzieć. Ale zmiana sama w sobie nie jest zła, nie należy na nią patrzeć jak na zagrożenie. Problemem jest jej szybkość. Musimy być w stanie pomóc zaadaptować się do niej, na przykład wyjaśnić nauczycielom w szkołach, w jaki sposób nauczyć się odróżniać prace napisane samodzielnie przez ucznia od tych stworzonych przy użyciu SI. I jestem przekonany, że za 20 lat sztuczna inteligencja sprawi, że teksty będą już pisane zupełnie inaczej. Rolą człowieka - na przykład dziennikarza - będzie przede wszystkim sprawdzenie tego, jak zrobiła to SI, ewentualna korekta popełnionych przez nią błędów. Ale ten zawód nie zaginie, bo potrzebny będzie ktoś, kto poręczy za taki tekst, w końcu ufamy drugiemu człowiekowi, nie maszynie.

Tyle że człowiek w takiej sytuacji straci wszelkie umiejętności, pozostanie jedynie figurantem firmującym swoim nazwiskiem pracę SI.

Jednego trzeba się wystrzegać. Nie można dopuścić do tego, żeby w przyszłości postęp techniczny stał się tak szybki, że wszelkie ludzkie przewidywania staną się nieaktualne, a ludzka inteligencja pozostanie w tyle za SI. Czasami spowolnienie tempa rozwoju technologicznego nie jest złym rozwiązaniem.

Już się mówi o moratorium na rozwój sztucznej inteligencji. W marcu pojawił się otwarty list do tego wzywający podpisany przez tysiące naukowców czy ludzi biznesu jak Elon Musk, Steve Wozniak, Tristan Harris.

Diagnoza stojąca za tym rozwiązaniem jest trafna, bo prędkość, z jaką rozwija się ta nowa technologia, jest rzeczywiście ogromna. Ale zaproponowane rozwiązanie się nie sprawdzi. Dlaczego? Bo nie mamy rządu światowego, a sztuczna inteligencja nie jest ograniczona do największych graczy na rynku technologicznym. Prace nad nią prowadzą także takie kraje, jak na przykład Chiny, Korea Południowa, Izrael. One tworzą systemy podobne do tych, które już znamy - a trudno sobie wyobrazić mechanizm, który umożliwiłby zablokowanie tych prac na poziomie całego świata.

Są globalne regulacje w wielu obszarach.

Sztuczna inteligencja to nie jest broń atomowa. Do wytworzeniu bomby nuklearnej potrzebne są rzadkie zasoby, które stosunkowo łatwo kontrolować - i to ułatwia nadzór nad tą bronią. Tymczasem teraz mówimy o systemach, które można stosować na komputerach domowych. Jakakolwiek kontrola nad nimi jest właściwie niemożliwa. Z tego powodu trudno wyobrazić sobie jakiekolwiek efektywne moratorium. Można jedynie próbować wprowadzić regulacje dotyczące SI. Temu służy na przykład EU Artificial Intelligence Act. Póki co nie jest on zbyt skuteczny, sam mam duży problem z jego ostatnią wersją. Nie zmienia to faktu, że uważam to za właściwy kierunek. W tę stronę powinniśmy iść. Potrzebujemy efektywnych regulacji, nie moratorium.

Jeszcze jedna obawa związana z SI - że wkrótce stanie się tak powszechna, że zdominuje każdy obszar życia. A przecież sztuczna inteligencja ma swoich właścicieli, autorów algorytmów. Czy oni w ten sposób nie zdobędą ogromnej władzy?

Nie, to niemożliwe - choć oczywiście wszystko zależy od tego, co pan ma na myśli mówiąc o algorytmach. Mam wrażenie, że patrzy pan na SI przez pryzmat tego, co teraz wiemy o mediach społecznościowych, takich platformach jak Facebook czy Twitter. Tymczasem sztuczna inteligencja nie ma z nimi nic wspólnego. Tych systemów - w przeciwieństwie do mediów społecznościowych - nie da się kontrolować, w tym sensie, że ich właściciele nie wiedzą, jaki wynik wygeneruje SI, wykonując jakieś zadanie. Specyfika tych maszyn polega na tym, że one mają umiejętność samouczenia się i nigdy nie wiadomo, jaki jest wynik ich działań. Człowiek nie jest w stanie tego kontrolować, to jest poza nami. SI jest tak złożona, że nikt - łącznie z jej twórcami - nie jest w stanie przewiedzieć, co właściwie ona nam przyniesie. W tym miejscu widać kolejną różnicę między człowiekiem i sztuczną inteligencją.

Łatwiej przewidzieć, jaki jest efekt działań człowieka.

Bardziej chodzi mi o to, że ludzie działają, chcąc osiągnąć konkretny cel - SI tego nie ma. Ona nie ma czegoś takiego, jak ostateczny koniec, ona ciągle się uczy, ciągle ewoluuje. Ludzie wybierają swoje cele, sztuczna inteligencja nie. SI nie może działać według założenia: jutro zniszczę całą ludzkość na Ziemi. Nie zrobi tego, bo nie funkcjonuje w kategoriach jakichkolwiek założeń czy planów. To w największym stopniu odróżnia ją od ludzi.

Na początku naszej rozmowy powiedział pan, że pojawienie się SI to rewolucja. Na razie nie widzimy jej konsekwencji. Kiedy one staną się powszechne?

Tego nie wiadomo. Nie wiadomo nawet, czy powinniśmy mówić o jednej rewolucji, czy o całej jej serii. Zakładam, że potrzebujemy co najmniej jednego pokolenia, by móc powiedzieć więcej o zmianach, które SI wprowadza w naszym życiu. Pewnie najwcześniej za 20-25 lat będzie widać konsekwencje popularyzacji tej nowej technologii.

Wcześniej rozmawialiśmy, że tempo przemian jest ogromne - a teraz pan mówi, że trzeba czekać co najmniej pokolenie na wynik.

W przypadku mediów społecznościowych rzeczywiście poszło szybciej - choć Facebook powstał niemal 20 lat temu, a ciągle nie widzimy wszystkich konsekwencji jego funkcjonowania. I to nawet nie jest kwestia technologii, tylko ludzi. Nie jesteśmy w stanie dostosować się do zmiany w ciągu tygodnia, potrzebujemy na to więcej czasu. Podejrzewam, że ewolucja ludzi zajmie mniej więcej jedno pokolenie. Ale już dziś widać, że jesteśmy na początku fali zmian, która odciśnie bardzo silne piętno na całym XXI wieku. Być może to najważniejsza zmiana tego stulecia.

Wspominał pan Rewolucję Francuską. To z tego czasu pochodzi powiedzenie o tym, że „rewolucja pożera własne dzieci”. Kto będzie dzieckiem rewolucji SI i jaki będzie jego los?

Ta rewolucja różni się od innych w tym sensie, że nie stoi za nią jedna konkretna osoba czy jedna siła podejmująca wszystkie decyzje. Upowszechnianie SI bardziej będzie przypominać okres, gdy do użytku wchodziła elektryczność. Jej upowszechnienie zmieniło wiele kwestii - na dobre i na złe. Teraz będzie podobnie. Systemy sztucznej inteligencji już dają ciekawe rezultaty, na przykład pozwalają szybciej pisać teksty, co dziennikarze i prawnicy szybko pokochają. Ale też za chwilę się przekonamy, że są też negatywne skutki tych zmian. Sztuczna inteligencja nie okaże się maszyną do produkcji szczęścia, będzie ona także wytwarzać konflikty i napięcia. Tak wygląda zmiana. Właśnie dochodzi do zmiany na świecie - ze wszystkimi dobrymi i złymi tego konsekwencjami. Ale dziś jeszcze nie wiemy, które z nich będą dominować.

Agaton Koziński

Polska Press Sp. z o.o. informuje, że wszystkie treści ukazujące się w serwisie podlegają ochronie. Dowiedz się więcej.

Jesteś zainteresowany kupnem treści? Dowiedz się więcej.

© 2000 - 2024 Polska Press Sp. z o.o.