Wyobraź sobie sztuczną inteligencję tak potężną, że nawet twórcy boją się udostępnić ją światu. Anthropic właśnie ogłosiło, że ich nowy model Mythos trafia „na półkę” z powodu „katastrofalnego ryzyka dla cyberbezpieczeństwa”. Brzmi dramatycznie, ale czy to nie kolejna odsłona wojny o uwagę w świecie AI?
Co to jest Claude Mythos i dlaczego go ukrywają?
Anthropic, firma znana z modelu Claude, właśnie zaprezentowała Claude Mythos Preview – swój najbardziej zaawansowany model graniczny. Twierdzą, że jest on genialny w zadaniach z zakresu cyberbezpieczeństwa, np. w znajdowaniu luk typu zero-day w oprogramowaniu i sprzęcie, o których twórcy jeszcze nie wiedzą. Zamiast wypuścić go na rynek, wybrali współpracę z nielicznymi partnerami w ramach Project Glasswing, aby wzmacniać kluczowe systemy.
Decyzja wynika z rzekomego „bezdyskusyjnego ryzyka dla cyberbezpieczeństwa”. Dario Amodei, szef Anthropic, ostrzegał, że model mógłby ułatwić ataki na banki czy infrastrukturę. Ale czy to nie przesada? Firma sama przyznaje, że Mythos jest drogi w utrzymaniu, co może być dodatkowym argumentem za trzymaniem go w zamknięciu.
To nie pierwszy raz, gdy firmy z branży AI grają kartą „zbyt niebezpieczne”. Przypomina to strategię OpenAI przy GPT-4, ale Anthropic pozycjonuje się jako podmiot bardziej odpowiedzialny.
Reakcje władz i zamieszanie wokół Mythos
Sprawa nabrała tempa, gdy sekretarz skarbu USA Scott Bessent zwołał szefów banków na rozmowę o Mythos. Brytyjski poseł Danny Kruger napisał nawet list do rządu, apelując o kontakt z Anthropic w sprawie „katastrofalnego ryzyka” dla Wielkiej Brytanii. Na platformie X wybuchła burza – od entuzjazmu po teorie spiskowe.
Anthropic chwali się, że model znalazł tysiące luk zero-day w dużych systemach operacyjnych. Brzmi to imponująco, ale eksperci tacy jak Jameison O’Reilly zajmujący się cyberbezpieczeństwem twierdzą, że w praktyce takie luki rzadko są kluczowe. Po dekadach testów w setkach firm, luki typu zero-day nie były niezbędne do przeprowadzenia skutecznych ataków.
To pokazuje, jak AI wpływa na politykę – nawet jeśli ryzyka są wyolbrzymione.
Marketingowy majstersztyk Anthropic
Anthropic bije rekordy popularności w mediach. W ostatnich miesiącach: obszerny profil w New Yorkerze, dwa artykuły w Wall Street Journal, okładka Time z twarzą Amodeiego nad Pentagonem. Jack Clark i Amodei gościli w podcastach New York Times, rozmawiając o świadomości AI czy destrukcji gospodarki.
Ich szefowa PR, Danielle Ghiglieri, chwali się na LinkedIn sukcesami, takimi jak wystąpienie w programie „60 Minutes”. Firma kreuje się na „odpowiedzialną” alternatywę dla OpenAI, zwłaszcza po konflikcie z Pentagonem – Anthropic dostarcza narzędzia do ataków na Iran, ale z lepszymi zabezpieczeniami.
To strategia mistrzowska: budowanie narracji o odpowiedzialności, aby przyciągnąć inwestycje.
Sceptycyzm ekspertów i ironia wycieku kodu
Nie wszyscy wierzą w tę narrację. Gary Marcus, krytyk AI, stwierdził: „Dario ma większą wiedzę techniczną niż Sam Altman, ale ukończył tę samą szkołę budowania szumu”. Dr Heidy Khlaaf z AI Now Institute nazywa ogłoszenie „marketingowym postem z celowo niejasnym językiem”, mającym na celu pozyskanie funduszy bez poddawania się kontroli.
Ironia losu: na początku kwietnia z Anthropic wyciekło 1900 plików kodu Claude Code – pół miliona linii, w tym niepublikowane funkcje. Firma twierdzi, że to „błąd ludzki” i nie wyciekły żadne wrażliwe dane. Inni specjaliści od PR komentują: każda inna firma zostałaby w takiej sytuacji wyśmiana.
Wprowadzono też limity użycia popularnego modelu Claude – zasoby obliczeniowe najwyraźniej nie nadążają za potrzebami.
Co to oznacza dla świata AI?
Mythos to realny postęp, ale wojna wizerunkowa Anthropic z OpenAI pokazuje branżę z najgorszej strony. Trzymanie modeli w sekrecie budzi pytania: kto kontroluje potęgę AI? Inwestorzy dają się przekonać, media piszą, ale czy bezpieczeństwo nie jest tylko wymówką?
Moja analiza: Anthropic gra va banque, stawiając na wizerunek. Zamiast pełnego udostępnienia, oferują wersję preview dla elity – to sprytne posunięcie. Jednak wycieki i limity pokazują, że nawet „bezpieczni” giganci mają słabe punkty.
Dla nas, zwykłych użytkowników, to sygnał: AI zmienia cyberprzestrzeń szybciej, niż jesteśmy w stanie to monitorować.