Pamiętacie czasy, gdy każdy za kilka dolarów mógł przetestować najpotężniejszą sztuczną inteligencję na świecie? Anthropic właśnie kończy tę sielankę modelem Mythos. Ukrywając go przed szerokim gronem odbiorców, otwiera puszkę Pandory z nierównościami w dostępie do mocy obliczeniowej.

Mythos – nowy król benchmarków

Anthropic chwali się Claude Mythos Preview jako swoim najsprawniejszym modelem granicznym do tej pory. Ten system deklasuje konkurencję w testach: 93,9 procent w SWE-bench Verified, 77,8 procent w SWE-bench Pro czy 83,1 procent w CyberGym – to wyniki, przy których Claude Opus 4.6 wypada blado. Inżynierowie bez doświadczenia w obszarze bezpieczeństwa proszą go o wskazanie luk w nocy, a on odnajduje podatności typu zero-day w OpenBSD po 27 latach od ich powstania czy w FFmpeg po milionach testów.

Nie chodzi tylko o suche liczby. Model łączy umiejętność programowania z rozumowaniem agentowym, co pozwala mu na autonomiczne budowanie exploitów. Anthropic podkreśla, że to skok jakościowy, ale z istotnym zastrzeżeniem – te zdolności czynią go bronią obosieczną. Ironia? Model najlepiej radzi sobie z zestrojeniem (alignment), a jednocześnie stanowi największe ryzyko.

Project Glasswing – klub dla wybranych

Zamiast wprowadzić Mythosa do powszechnego obiegu, Anthropic uruchomił Project Glasswing. To koalicja gigantów: Amazon Web Services, Apple, Cisco, Google, Microsoft, NVIDIA i ponad 40 innych firm zarządzających krytycznym oprogramowaniem. Otrzymują one dostęp do modelu wraz z kredytami o wartości 100 milionów dolarów, aby łatać dziury w infrastrukturze.

Cele? Znaleźć i naprawić tysiące luk wysokiego ryzyka, zanim zrobią to hakerzy wspomagani przez AI. Przykłady z życia: model ujawnił łańcuch podatności w systemie Linux dający uprawnienia administratora (root) oraz stare błędy w przeglądarkach. Anthropic obiecuje raport za 90 dni wraz z rekomendacjami, ale 50 firm partnerskich już teraz zyskuje ogromną przewagę. Sarkazm? Twierdzą, że to defensywa, ale w cyberwojnie to jak dozbrajanie sojuszników kosztem całej reszty.

Koniec ery ChatGPT dla mas

Od czasu premiery ChatGPT każdy użytkownik dysponujący gotówką miał dostęp do technologii SOTA. Mythos kończy tę idyllę – Anthropic nie planuje wydania publicznej wersji bez ograniczeń. Wybrani otrzymają pełną moc, reszta będzie musiała zadowolić się osłabionym klonem. Podobną politykę stosują OpenAI czy Google, więc nie łudźmy się: powrót do pełnego, otwartego dostępu jest mało prawdopodobny.

Autor wpisu w serwisie LessWrong trafnie zauważa: to nieodwracalne przesunięcie władzy. Modele stają się coraz potężniejsze, a przepaść między tym, co firmy trenują w swoich laboratoriach, a tym, co udostępniają nam, rośnie wykładniczo. Brak dostępu do technologii SOTA oznacza przegraną w przyszłych konfliktach, nawet jeśli dziś mówimy jedynie o cyberobronie.

Konsekwencje dla demokracji i władzy

Wyłączność na korzystanie z modelu Mythos to czysta przewaga – nie tylko w kontekście błędów w kodzie, ale w wojnie, w której cyberprzestrzeń jest głównym polem bitwy. Anthropic mówi o wspólnym dobru, ale jakie są realia? Firmy z dostępem budują mury wokół krytycznej infrastruktury. Demokracje opierają się na równowadze sił jednostek, a tymczasem centralizacja AI tę równowagę podkopuje.

Nie twierdzę, że pełne udostępnienie modelu byłoby rozsądne – ryzyko złośliwego użycia jest realne. Ale jakie będą konsekwencje? Giganci tacy jak Anthropic realizują ukryty plan: budowę nadludzkiej inteligencji dla zysków i dominacji. Era strzeżonych modeli SOTA budzi niepokój, ponieważ zwykli użytkownicy stają się jedynie petentami.