Ponad 800 prominentnych postaci ze świata polityki, technologii, nauki i rozrywki podpisało bezprecedensowy list otwarty, wzywający do natychmiastowego wstrzymania rozwoju superinteligentnej sztucznej inteligencji (AI) do czasu zapewnienia odpowiednich zabezpieczeń. Inicjatywa, zorganizowana przez organizację non-profit Future of Life Institute, skupia niezwykłą koalicję sygnatariuszy. Od brytyjskiej rodziny królewskiej po konserwatywne osobistości medialne, zjednoczone w trosce o potencjalne zagrożenia, jakie niesie AI przewyższająca ludzką inteligencję.
Bezprecedensowa koalicja ponad podziałami
List, opublikowany w środę, zawiera podpisy m.in. księcia Harry’ego i Meghan Markle, byłego doradcy Donalda Trumpa Steve’a Bannona, współzałożyciela Apple Steve’a Wozniaka, założyciela Virgin Group Richarda Bransona, laureata Nagrody Nobla Geoffreya Hintona oraz byłej doradczyni ds. bezpieczeństwa narodowego administracji Obamy Susan Rice. Ta różnorodna grupa odzwierciedla globalne obawy dotyczące bezpieczeństwa AI, które przekraczają tradycyjne podziały polityczne i geograficzne.
„Przyszłość AI powinna służyć ludzkości, a nie ją zastępować” – powiedział książę Harry w oświadczeniu towarzyszącym podpisaniu listu. „Kluczowym wyzwaniem nie jest tempo rozwoju, lecz zapewnienie bezpieczeństwa. Nie możemy ryzykować w tej kwestii.”
Wśród sygnatariuszy znaleźli się także pionierzy AI, tacy jak Yoshua Bengio i Geoffrey Hinton, obaj laureaci Nagrody Turinga, uważani za „ojców chrzestnych” współczesnej sztucznej inteligencji. Ich udział podkreśla powagę sytuacji, zważywszy na ich kluczową rolę w rozwoju tej technologii.
Giganci technologiczni pod presją
List otwarty jest wyraźnym sygnałem dla głównych firm technologicznych, takich jak Google, OpenAI czy Meta, które intensywnie pracują nad superinteligentnymi systemami AI. Mark Zuckerberg, dyrektor generalny Meta, niedawno ogłosił inwestycję 15 miliardów dolarów w nowe „laboratorium superinteligencji”. OpenAI określa się jako „firma badawcza superinteligencji”.
„Wzywamy do zakazu rozwoju superinteligencji, który pozostanie w mocy, dopóki nie osiągniemy szerokiego konsensusu naukowego co do bezpieczeństwa i kontroli nad tą technologią oraz silnego poparcia społecznego” – głosi treść listu.
Stuart Russell, profesor informatyki na UC Berkeley i współautor wiodącego podręcznika o AI, wyjaśnił, że propozycja „nie jest tradycyjnym zakazem ani moratorium”. „Chodzi o wprowadzenie zabezpieczeń dla technologii, która może stanowić zagrożenie na poziomie egzystencjalnym. Czy to naprawdę zbyt wiele?” – zapytał retorycznie.
Poparcie społeczne i badania
Badanie przeprowadzone przez Future of Life Institute wykazało, że 64% respondentów popiera wstrzymanie rozwoju superinteligencji do czasu zapewnienia jej bezpieczeństwa i kontroli. Jedynie 5% opowiada się za nieuregulowanym, szybkim rozwojem. Dodatkowo, aż 73% dorosłych Amerykanów wspiera wprowadzenie surowych regulacji dotyczących AI.
Max Tegmark, profesor MIT i prezes Future of Life Institute, podkreślił, że obawy dotyczące AI wykraczają poza środowisko akademickie i technologiczne. „To, co łączy tych ludzi z różnych stron sceny politycznej, to przekonanie, że przyszłość należy do ludzi, a nie maszyn. Chcemy świata, w którym technologia służy nam, a nie przejmuje kontrolę”.
Wyzwanie dla przyszłości
List otwarty stanowi przełomowy moment w debacie nad przyszłością AI. Podkreśla konieczność współpracy międzynarodowej, naukowej i społecznej, aby zapewnić, że rozwój superinteligencji nie wymknie się spod kontroli. Koalicja wzywa do stworzenia globalnych ram regulacyjnych, które zagwarantują bezpieczeństwo i odpowiedzialność w rozwoju tej potężnej technologii.
W miarę jak świat zmierza ku coraz bardziej zaawansowanym systemom AI. Czy ludzkość zdoła znaleźć równowagę między innowacją a bezpieczeństwem? Odpowiedź na to pytanie może zadecydować o przyszłości naszej cywilizacji.






Zaloguj się na swoje konto, aby zostawić swój komentarz.