Wyobraź sobie: wracasz do domu po dniu pełnym spotkań o superinteligentnej sztucznej inteligencji, a pod Twoimi drzwiami ląduje koktajl Mołotowa. Tak zaczął się tydzień Sama Altmana, szefa OpenAI. To nie żart – to sygnał, że napięcia wokół AI przenoszą się z internetowych forów do świata rzeczywistego.

Koktajl Mołotowa w Russian Hill: atak na Altmana

Dom Sama Altmana w sanfranciszańskiej dzielnicy Russian Hill stał się celem ataku. Jak donosi „San Francisco Chronicle”, 20-letni Daniel Alejandro Moreno-Gama rzekomo rzucił w budynek koktajlem Mołotowa, motywowany strachem przed wyścigiem zbrojeń w dziedzinie AI, który jego zdaniem prowadzi do ekstynkcji ludzkości. Podejrzany publikował wpisy na ten temat w sieci, zanim przeszedł do czynów. Według „San Francisco Standard” dwa dni później doszło do kolejnego incydentu – pod tym samym adresem padły strzały.

To nie jest odosobniony przypadek. Altman, ikona Doliny Krzemowej, na własnej skórze przekonał się, co oznacza bycie celem. Policja aresztowała Moreno-Gamę po nalocie FBI. Napastnik twierdzi, że znajdował się w kryzysie psychicznym, jednak fakty wskazują na sztuczną inteligencję jako bezpośredni zapalnik – mężczyzna dołączył wcześniej do serwera Discord grupy PauseAI, choć organizacja stanowczo odcina się od jego działań.

Centra danych pod ostrzałem: incydent w Indianapolis

Tydzień przed atakiem na Altmana radny z Indianapolis, Vop Osili, zgłosił oddanie 13 strzałów w kierunku swoich drzwi po tym, jak poparł zmianę planu zagospodarowania przestrzennego dla dewelopera centrów danych. Na miejscu znaleziono notatkę: „Nie dla centrów danych”. PBS informuje o rosnącej fali gniewu wymierzonej w energetyczne molochy AI, które zużywają ogromne ilości energii elektrycznej.

Lokalne społeczności buntują się przeciwko hałasowi, ulgom podatkowym i emisji CO2. W USA protesty przeciwko takim inwestycjom mnożą się od Alaski po Montanę. To już nie jest literatura science-fiction – to realne ataki na polityków, którzy dają zielone światło dla serwerowni trenujących modele takie jak GPT.

Ironią losu jest fakt, że OpenAI promuje ideę „New Deal dla AI”, zakładającą m.in. subsydia na centra danych, podczas gdy sam Altman stał się ofiarą gwałtownego sprzeciwu społecznego.

Reakcje z Doliny: od Muska po „doomersów”

Sam Altman zareagował emocjonalnie: we wpisie na blogu obwinił „podżegający” artykuł w „New Yorkerze” (oparty na ponad 100 wywiadach dotyczących braku zaufania do niego), pisząc o niszczycielskiej mocy narracji. Później wycofał się z części twierdzeń w serwisie X, tłumacząc się złym doborem słów. Doradca Białego Domu, Sriram Krishnan, wskazał na środowiska „doomersów” (osób wieszczących zagładę przez AI), cytując zapowiadaną na 2025 rok książkę Yudkowsky’ego i Soarsa „If Anyone Builds It, Everyone Dies”.

Elon Musk, współzałożyciel OpenAI (odszedł z zarządu w 2018 roku, a w 2023 założył xAI), potępił incydent: „Nie lubię Sama, ale przemoc jest niedopuszczalna”. Grupy takie jak PauseAI i StopAI wydały oświadczenia: działamy pokojowo i nie zachęcamy do konstruowania bomb. Altman przyznał ostatecznie, że krytyka jest słuszna, ale zaapelował o tonowanie retoryki i ograniczenie „eksplozji” – zarówno tych dosłownych, jak i metaforycznych.

Historia przemocy: dane z Princeton i Michigan

Inicjatywa Bridging Divides z Uniwersytetu Princeton monitoruje groźby kierowane pod adresem urzędników. W 2025 roku w Ypsilanti w stanie Michigan zamaskowani protestujący obrzucili podwórko członka rady częściami komputerowymi i rozbili drukarkę w ramach protestu przeciwko systemom obliczeniowym o wysokiej wydajności.

Choć wandalizm nie jest nowością, AI znacząco podnosi temperaturę sporu. Baza danych odnotowuje coraz więcej incydentów: od gróźb po akty niszczenia mienia. „Washington Post” sugeruje, że ataki na Altmana mogą być punktem zwrotnym dla przemocy politycznej skupionej wokół technologii.

Większość oporu pozostaje jednak pokojowa – obejmuje głodówki pod biurami firm technologicznych, apele o wstrzymanie prac nad AI (słynny list z 2023 roku) czy marsze w Londynie. Niemniej jednak widmo eskalacji staje się coraz wyraźniejsze.

Dlaczego teraz? Psychozy, rynek pracy i wizja apokalipsy

Daniel Schiff z Purdue University wyjaśnia: kiedy połączymy niepokoje ruchu robotniczego ze strachem przed apokalipsą wywołaną przez AI oraz czatbotami, które mogą pogłębiać stany psychotyczne, otrzymujemy mieszankę wybuchową prowadzącą do tragedii (NYT, NPR 2025). „Nie powinno dziwić, że dochodzi do tak drastycznych aktów”.

Lęk przed utratą pracy miesza się z obawami egzystencjalnymi – sam Musk już w 2017 roku ostrzegał przed ryzykiem dla cywilizacji. Schiff apeluje o budowę sieci bezpieczeństwa socjalnego i odejście od retoryki „otwierania puszki Pandory”. Przedstawiciele PauseAI dodają: milczenie decydentów jest gorsze niż pokojowe protesty.

Dla branży to sygnał alarmowy: konieczna jest deeskalacja i szkolenia z zakresu bezpieczeństwa. Wygląda na to, że sztuczna inteligencja nie tylko zmienia świat, ale też wyzwala w ludziach najgorsze instynkty.