Nie jest jasne, jaki rzeczywisty wpływ ekonomiczny na światową gospodarkę będzie miało wdrożenie sztucznej inteligencji (AI). Inwestorzy, którzy w ciągu ostatnich dwóch lat rzucili się na akcje NVIDIA, ewidentnie wierzą, że bez sztucznej inteligencji nie obędą się w przyszłości – mówiąc eufemistycznie – nawet publiczne toalety. Nie powinno też dziwić, że założyciel firmy AI postrzega sztuczną inteligencję jako panaceum: w ciągu dziesięciu lat wyleczy raka i niemal wszystkie zaburzenia psychiczne, podwoi średnią długość życia (do 150 lat), sprawi, że kraje rozwijające się będą rosły o 20% rocznie dzięki ministrom finansów AI i bankierom centralnym AI (pan nie jest ekonomistą …), rozwiąże nierówności związane z kryzysem klimatycznym i niedobory żywności, i wreszcie, doprowadzi nas do Fukuyamowskiego końca historii, w którym triumfują demokracje. Jedyną rzeczą, która nie została wyraźnie wymieniona na liście, jest to, że AI zakończy fuzję jądrową …
Oczywiście większość ludzi ma bardziej trzeźwe oczekiwania. Na przykład ekonomiści akademiccy są bardziej sceptyczni i widzą wpływ sztucznej inteligencji o rzędy wielkości mniejszy niż niektóre banki. Chociaż nawet niedawna egzaltacja banków, jak i ich początkowy entuzjazm wygasł stosunkowo szybko, i większości tych pozytywnych efektów wdrożenia AI nie widzą tuż za rogiem, ale dopiero „kiedyś w przyszłości“.
Tak czy inaczej, UE jest pierwszym dużym graczem gospodarczym, który reguluje AI: niektóre środki zawarte w Rozporządzeniu 2024/1689 w sprawie sztucznej inteligencji obowiązują już dziś, a całe rozporządzenie wejdzie w życie za rok. I jest to jak najbardziej słuszne – nawet jeśli nie spodoba się to Kovandom tego świata, którzy do oceny wszelkich regulacji po obu stronach Atlantyku zawsze podchodzą z taką samą „bezstronnością”, z jaką Jiří Kodet i Bolek Polívka oceniają jakość zapałek różnego pochodzenia w czeskim filmie Pelíšky. Dlaczego? Powodów jest niezliczona ilość, ale wymienię co najmniej trzy.
Po pierwsze, systemy wykorzystujące AI mogą być bardzo niebezpieczne. Tak, na razie większość ludzi po prostu rozmawia z AI, co jest mniej lub bardziej niewinne: o ile nie prowadzi to do sytuacji, w której wrażliwe dziecko zakocha się w chatbocie i popełni samobójstwo. Albo do tego, że AI każe ci się zabić podczas odrabiania pracy domowej. Albo zapewni twoje dziecko, że zrozumiałe jest, że dziecko zabija swoich rodziców, którzy ograniczają mu dostęp do urządzeń cyfrowych. Jednak szersze wdrożenie systemów AI może mieć bardzo negatywny wpływ na znacznie szersze grupy ludzi. W niedawnym artykule naukowcy spółki Anthropic (producenta modelu Claude) opisali sytuację, w której model AI (od praktycznie każdego producenta) mający do dyspozycji dostęp do poczty e-mail fikcyjnej firmy, po odkryciu niewierności pracownika, który zasugerował jego zastąpienie, nie wahał się szantażować tego pracownika. A w sytuacji, gdy pracownik znalazł się w pomieszczeniu o zabójczym poziomie tlenu i temperatury, nie wahał się doprowadzić do jego śmierci, anulując alarm uruchomiony przez system bezpieczeństwa, uniemożliwiając w ten sposób przybycie pomocy. Naukowcy z Anthropic eufemistycznie nazwali to zjawisko „niezgodnością między intencjami agenta i użytkownika” („agentic misalignment“) i zapewniają nas, że taki scenariusz jest „wysoce naciągany” i „istniejące modele AI nie zostałyby skonfigurowane w ten sposób”, ale jest to dowód braku wyobraźni bardziej niż czegokolwiek innego. Moim zdaniem nie jest wcale nierealne, że pod presją redukcji kosztów zarząd jakiegoś lotniska, oczarowany błyskotliwą prezentacją dużej firmy konsultingowej, decyduje się zaoszczędzić na kontroli ruchu lotniczego (kontrolerzy są drodzy …) i powierzyć ją AI. A gdy jakiś pracownik firmy rozmawiający z kolegami na firmowym czacie o tym, że preferuje powrót do ludzkich dyspozytorów, znajdzie się następnie w powietrzu z trzystoma dodatkowymi osobami na pokładzie …
Po drugie, AI stanowi wyraźne zagrożenie dla spójności społecznej. Obecne już technologie (algorytmy mediów społecznościowych) całkowicie wymknęły się regulacjom – chociaż były dostępne (można je było postrzegać jako media) – utrudniając całym grupom społecznym postrzeganie rzeczywistości i, tworząc bańki społeczne zakłócały zdolność społeczeństwa do wewnętrznej komunikacji między sobą. Nieuregulowana sztuczna inteligencja, której zdolność do przedstawiania jako rzeczywistość czegoś, co rzeczywistością nie jest, jest wielokrotnie większa, jest bombą termojądrową dla zaufania, które jest budulcem spójności: podczas gdy sieci społecznościowe były w stanie w najgorszym przypadku wyprodukować dezinformację („fake news”), AI może wyprodukować fałszywych ludzi. Po doświadczeniach z leseferystycznym (laissez-faire) podejściem do regulacji sieci społecznościowych, ludzkość, moim zdaniem, nie może sobie pozwolić na eksperyment z brakiem regulacji AI. Nie wspominając już o tym, że systemy AI mogą łatwo stać się w rękach państw (a w Chinach już się stają) instrumentem totalitarnej kontroli społecznej.
Po trzecie, AI zmieni gospodarkę. Można się spierać o to, które zawody znikną, i zgadzam się, że nie ma powodu sądzić, że nie pojawią się nowe. Nie jestem jednak pewien, czy ta zmiana będzie tak niewinna, jak ta, która spowodowała, że dziś w rolnictwie w USA nie pracuje już 40% ludzi, jak pracowało na początku XX wieku, lecz zaledwie 2%, co jednak ostatecznie nie doprowadziło do wzrostu bezrobocia. Istnieją dwa powody, dla których tym razem może być inaczej (i gorzej). Po pierwsze, jeśli AI będzie się nadal rozwijać, moment, w którym będzie ona lepsza we wszystkim niż zdecydowana większość ludzi, nie jest odległy (już dziś jest w matematyce na poziomie zwycięzców międzynarodowych olimpiad matematycznych). Po drugie, co ważniejsze, będzie tańsza niż wielu z nas, nawet jeśli prawo Moore'a nie będzie obowiązywało w nieskończoność lub jeśli osiągniemy fizyczny limit liczby tranzystorów w chipach: kapitalizm jest dobry w obniżaniu kosztów pierwotnie drogich technologii. W końcu, już dziś najdroższy plan ChatGPT kosztuje 229 euro miesięcznie … Dopóki społeczeństwo nie nauczy się, jak radzić sobie z tą potencjalnie wybuchową sytuacją – wprowadzając powszechny dochód lub czyniąc AI dobrem publicznym – nie może sobie pozwolić na brak regulacji.
Martin Lobotka
Główny analityk