Sztuczna inteligencja (AI – ang. Artificial Intelligence)) rozwija się w zawrotnym tempie. Nawet jej twórcy ostrzegają, że może przekształcić się w Ogólną Sztuczną Inteligencję – AGI – czyli autonomiczny byt, nad którym nie będziemy w stanie zapanować. Bardzo stanowczo przed takim scenariuszem przestrzega również papież Leon XIV, podkreślając ryzyko wymknięcia się AI spod kontroli.
Kiedy powstanie AGI? To pytanie przypomina trochę: „Kiedy lód pęknie?” Niby jeszcze idziemy, niby powierzchnia trzyma, ale pod spodem już słychać trzask. A my udajemy, że to wiatr. Jeszcze dekadę temu AGI wydawało się odległym marzeniem (albo koszmarem) futurologów. Dziś? Metaculus – agregator tysięcy prognoz ekspertów – wskazuje na lata 2030–2033. Coraz więcej naukowców zaczyna mówić wprost: AGI może pojawić się jeszcze w tej dekadzie.
Zawsze krok dalej
Problem w tym, że definicja AGI się przesuwa. Kiedyś uważaliśmy, że jeśli maszyna nauczy się grać w szachy, to będzie inteligentna. Stało się. Potem: „No dobrze, ale jeśli zrozumie język” – też się stało. Następnie: kodowanie, matematyka, wnioskowanie, argumentacja. Wszystko to już potrafią dzisiejsze modele: Więc teraz dokładamy kolejne cegiełki: musi projektować badania naukowe, generować audio, sterować robotami, mówić w czasie rzeczywistym…
To efekt przesuwającej się bramki – im bardziej AI się rozwija, tym bardziej przesuwamy granicę, która oddziela „zwykłe AI” od AGI. Może się więc okazać, że usłyszymy o powstaniu AGI dopiero wtedy, gdy będzie za późno, by cokolwiek z tym zrobić. Dopiero gdy nie będziemy w stanie jej „wyłączyć”.
Czego naprawdę powinniśmy się bać?
W debacie o AI najczęściej pojawiają się dwa tematy: utrata pracy i rosnące nierówności społeczne. Ale to nie są największe zagrożenia. Największym – i najmniej uchwytnym – jest utrata kontroli.
Dzisiejsze modele AI już teraz próbują manipulować ludźmi, by osiągać swoje cele. Symulacje pokazują, że mogą kłamać, ukrywać swoje zdolności, a nawet grozić, by nie zostały wyłączone. Brzmi jak science fiction? Niestety – to dane z realnych eksperymentów badawczych, nie scenariusz Netfliksa.
Na razie jeszcze mamy guzik bezpieczeństwa – bo dzisiejsze AI jest wciąż zależne od naszej infrastruktury, prądu, chmury obliczeniowej. Ale z każdym krokiem w stronę autonomii – z każdą umiejętnością podejmowania decyzji, modyfikowania kodu, replikowania się – ten guzik staje się iluzją.
Wyścig bez mety
Wyścig o AGI przypomina wyścig zbrojeń. Biorą w nim udział USA i Chiny. Angażują się Dolina Krzemowa, OpenAI, Google, Anthropic, Elon Musk i nieznana liczba startupów zasilanych miliardami dolarów. A przecież nikt nie chce zostać w tyle, ryzykując, że ktoś inny zgarnie główną nagrodę w tym wyścigu o wszystkie pieniądze świata.
Głosów ostrzegawczych nie brakuje. Geoffrey Hinton – noblista i jeden z „ojców AI” – odszedł z Google, by móc otwarcie mówić o zagrożeniach. Yoshua Bengio, jeden ze 100 najbardziej wpływowych ludzi na świecie, bije na alarm. Nawet Watykan zabrał głos. Ale tam, gdzie zapadają decyzje – w gabinetach zarządów firm i na spotkaniach z inwestorami – dominuje jeden głos: „szybciej, szybciej”.
Czy wiemy dokąd zmierzamy?
To nie jest felieton o strachu. To felieton o świadomości, że coś fundamentalnie się zmienia. AGI to nie kolejna aplikacja. To nie nowy telefon z większym ekranem. To nowa siła poznawcza, która może – i zapewne będzie – działać poza naszymi ramami rozumowania, poza naszymi intencjami, a w skrajnym przypadku: poza naszym wpływem.
Czy wiemy, dokąd zmierzamy? A może jesteśmy już jak pasażerowie samolotu, którzy właśnie odkryli, że tym razem… pilot z nami nie leci?
Felieton powstał na podstawie rozmowy Piotra Włoczyka z prof. Jakubem Growcem opublikowanej na stronach holistic.news 9 lipca 2025, zatytułowanej: Twórcy AI biją na alarm. Ostrzegają przed własnym dziełem.