W kolejnych numerach PJC będziemy przytaczać ciekawsze fragmenty wypowiedzi uczestników Forum G2 we Wrocławiu. Poniżej wybrane głosy w dyskusji panelowej o Sztucznej Inteligencji z udziałem:
Andrzej Zybertowicz – Profesor nauk społecznych, doradca społeczny Prezydenta RP Andrzeja Dudy
Dominika Bucholc – Dyrektor Zarządzająca CampusAI Poland, ekspert ds. sztucznej inteligencji
Leszek Bukowski – Ekspert Al, Nature Language Processing
Jacek Oko – Prezes Urzędu Komunikacji Elektronicznej
Michal Karbowiak (Moderacja)
Jestem wyluzowany jako Dziecię Boże, natomiast jako analityk jestem pełen niepokoju i od lat, od czasu opublikowania przez mój zespół książki „Samobójstwo Oświecenia” jestem zwolennikiem moratorium technologicznego, czyli wstrzymania postępu technicznego na wybranych polach, a dzisiaj dokładnie doprecyzowuję tę tezę, idąc za niektórymi zresztą analitykami, także z Kalifornii, mianowicie trzeba wstrzymać wszystkie prace nad ogólną inteligencją, nad superinteligencją, całe to przedsięwzięcie jest crazy i rozwijać tylko inteligencje wyspecjalizowane, bo je jesteśmy w stanie mieć pod kontrolą.
I teraz, czy w sytuacji, gdy Chińczycy w tym wyścigu uczestniczą – znam to zastrzeżenie – czy jest możliwe uzyskanie jakiegoś międzynarodowego konsensusu zaczynającego się na linii Waszyngton-Pekin, żeby pracę nad wielkimi modelami nakierowanymi na AGI powstrzymać. Otóż wydaje mi się, że wbrew pozorom tak. Jak wskazała jedna z amerykańskich analityczek, władza autorytarna zawsze się boi bardziej utraty swojej pozycji niż władze demokratyczne. I dlatego Chińczycy przodują w wewnętrznych regulacjach świata cyfrowego w tym sztucznej inteligencji, bo boją się dwóch rzeczy. Po pierwsze, że ci, którzy nad tymi modelami pracują, którzy je rozwijają mogą uzyskać jakąś dźwignię, żeby autorytarną władzę obalić i drugiej rzeczy się boją jeszcze bardziej, że jak się AGI usamodzielni, to ta inteligencja po prostu z tą władzą sobie poradzi. To jest przesłanka do tego, żeby budować globalne porozumienia wstrzymujące te kierunki badań, w których nie będziemy w stanie utrzymać pod kontrolą swoich własnych wytworów.
Prof. Andrzej Zybertowicz
Słuchajcie, co roku wychodzi moim zdaniem najlepszy i najpełniejszy raport o stanie sztucznej inteligencji. Wydaje go Uniwersytet Stanforda. W tym roku jest bardzo opasły. Ma 500 stron. Oczywiście najczęściej jest tak, że dominującą rolę zajmują Stany Zjednoczone. Już może nie, jeśli chodzi o publikacje w tych najbardziej renomowanych pismach, ale jeżeli chodzi o inwestycje w sztuczną inteligencję, to są cały czas Stany Zjednoczone. Polski w zasadzie tam nie ma. Natomiast jest jeden ranking, w którym się pojawiamy na czołowym miejscu. To jest ranking ilości absolwentów IT co roku wypuszczanych w Europie. To jest Polska. Jesteśmy na drugim miejscu. Chyba za Niemcami. Nie pamiętam już w tym momencie dokładnie. I to jest nasz największy problem, że trochę jesteśmy, ja uważam, frajerami. Mamy świetnych specjalistów, którzy budują znakomite produkty, a te produkty następnie budują bogactwo innych narodów. Niestety tak to wygląda.
Dr Leszek Bukowski
Punktem ciężkości mojej perspektywy jest to, co powiedziałem wcześniej. Rozwijać wyspecjalizowane systemy. Nie dać się uwieść w perspektywę rozwoju ogólnej, sztucznej, zwłaszcza superinteligencji. I zarazem pamiętać, że jeśli coś pójdzie nie tak, to te kraje, te sektory gospodarki, które pochopnie w to nie wskoczyły lub zbudowały systemy cyberbezpieczeństwa wyższej klasy, one przetrwają.
prof. Andrzej Zybertowicz
Wiecie, co jest największym moim zdaniem niebezpieczeństwem? Systemy wykorzystujące uczenie maszynowe, które są z nami od kilkunastu lat i są największym z nami niebezpieczeństwem. To są silniki rekomendacyjne. To dzięki nim firmy w okolicach 2010 roku zaczęły zarabiać miliony dolarów, które przeznaczały następnie na badania i rozwój. Z silnikiem rekomendacyjnym stykacie się w każdej sieci społecznościowej, w każdym dużym sklepie. I moim zdaniem jest to pierwszy przykład zastosowania uczenia maszynowego, w wyniku którego powstał tak zwany disalignment, czyli stawiamy pewien cel systemowi, ale oprócz tego on realizuje coś, co sprawia, że ludzie na tym tracą. To jest znany przykład algorytmów Instagrama, wyspecjalizowanych. Mają nas jak najdłużej trzymać. Mieli badania, że dziewczyny oglądając influencerki i modelki, że ich dobrostan się pogarsza. To nie jest tak, że ktoś, kto trenował ten model wiedział, że to się stanie. I teraz pytanie – z takimi silnikami rekomendacyjnymi stykamy się codziennie i nikt nad tym nie ma kontroli?!
Dr Leszek Bukowski