Eksperci biją na alarm. Ponad 850 autorytetów wzywa do zatrzymania wyścigu sztucznej inteligencji
Ponad 850 ekspertów, naukowców i liderów technologii apeluje o wstrzymanie prac nad sztuczną superinteligencją, ostrzegając przed utratą kontroli, zagrożeniem dla wolności i możliwym wyginięciem ludzkości.

Strach przed jutrzejszą technologią
Czy świat biegnie zbyt szybko ku technologicznej przepaści? Ponad 850 czołowych postaci ze świata nauki, technologii, polityki i kultury apeluje o globalne wstrzymanie prac nad sztuczną superinteligencją. Wspólny list, podpisany m.in. przez Geoffrey’a Hintona i Yoshuy Bengio, laureatów Nagrody Turinga uznawanych za „ojców chrzestnych AI” ostrzega, że dalszy rozwój tej technologii może prowadzić do utraty kontroli nad przyszłością ludzkości.
Sygnatariusze dokumentu nie są przeciwnikami sztucznej inteligencji jako takiej. Chcą jednak powstrzymać wyścig, który ich zdaniem przybiera niebezpieczne tempo. Ich przesłanie jest jednoznaczne: zanim powstanie AI potrafiąca przewyższyć ludzkie zdolności poznawcze, potrzebny jest globalny konsensus naukowy, mechanizmy kontroli i społeczne przyzwolenie.
Nie otwierajmy puszki pandory!
Autorzy apelu przypominają, że jeszcze w latach 50. Alan Turing przewidywał, iż maszyny mogą w końcu zdominować człowieka. Dziś ta wizja przestaje być futurystyczną fantazją. Superinteligencja, czyli system przewyższający ludzką zdolność myślenia, analizowania i decydowania, może według ekspertów doprowadzić do ekonomicznego wyparcia ludzi, utraty wolności, a nawet ich wyginięcia.
Yuval Noah Harari, izraelski historyk i badacz, przestrzega przed budowaniem czegoś, czego nikt nie potrafi kontrolować: „Superinteligencja mogłaby złamać system operacyjny naszej cywilizacji. Nie potrzebujemy jej, aby czynić dobro. Potrzebujemy narzędzi, które działają dla ludzi, a nie zamiast nich”.
Z kolei Mark Beall, były strateg Departamentu Obrony USA, nazywa prace nad niekontrolowaną superinteligencją „aktem ludzkiej pychy pozbawionej moralnych ograniczeń”.
Świat technologii na rozdrożu
Paradoks polega na tym, że to właśnie liderzy branży AI - jak Sam Altman z OpenAI czy Mustafa Suleyman z Microsoftu wielokrotnie mówili o potencjalnych zagrożeniach, jakie niesie rozwój systemów przewyższających ludzką inteligencję. Jednocześnie ich firmy nadal inwestują miliardy dolarów w badania nad jeszcze bardziej zaawansowanymi modelami.
Meta poszła nawet krok dalej, nazywając swój dział badawczy „Superintelligence Labs”. Termin, który jeszcze kilka lat temu brzmiał jak tytuł filmu science fiction, dziś stał się marketingowym hasłem przyciągającym uwagę inwestorów i opinii publicznej.
Potrzeba globalnego hamulca
Autorzy apelu wzywają do wprowadzenia międzynarodowego zakazu dalszych prac nad superinteligencją do czasu, aż naukowcy i społeczeństwo zyskają pewność, że można ją rozwijać bez ryzyka dla ludzkości. To swoisty postulat moratorium technologicznego, który miałby zapobiec sytuacji, w której rywalizacja pomiędzy mocarstwami wymknie się spod kontroli.
Książę Harry, który także podpisał apel, ujął to w prostych słowach: „Przyszłość sztucznej inteligencji powinna służyć człowiekowi, nie go zastępować. Liczy się nie szybkość, ale mądrość w kierowaniu postępem”.
Twój komentarz został przesłany do moderacji i nie jest jeszcze widoczny.
Sprawdzamy, czy spełnia zasady naszego regulaminu. Dziękujemy za zrozumienie!
Przeglądarka od OpenAI, która ma zdetronizować Google Chrome
Listonosz już nie zostawi Ci awizo. Nadchodzi cyfrowa rewolucja
Uganda odkryła złoża rudy złota warte 12 bilionów dolarów?
Elon Musk robi wyprzedaż nieużywanych nicków na X. Niektóre kosztują miliony…
Generał amerykańskiej armii przyznaje: korzystam z ChatGPT przy podejmowaniu decyzji

