Wyobraź sobie model AI, który tak genialnie znajduje luki w oprogramowaniu, że firma postanawia schować go głęboko w szufladzie. Anthropic właśnie to zrobiło z Mythos Preview – i teraz wszyscy zastanawiają się, czy to heroiczny gest odpowiedzialności, czy po prostu genialny ruch marketingowy.
Co wiemy o Mythos Preview
Anthropic, firma założona przez byłych badaczy OpenAI, ogłosiła niedawno model Mythos Preview. Twierdzą, że jest on tak zaawansowany w identyfikacji i wykorzystywaniu podatności w oprogramowaniu, iż publiczne udostępnienie mogłoby zagrozić gospodarce, bezpieczeństwu publicznemu i narodowemu. Zamiast tego ograniczają dostęp wyłącznie do wybranych badaczy.
Mythos Preview ma przewyższać konkurencję w zadaniach związanych z łamaniem zabezpieczeń. Reporterka Guardiana, Aisha Down, podkreśla, że decyzja Anthropic wynika z poczucia odpowiedzialności, ale budzi pytania o wiarygodność. Firma nie podała dokładnych wyników testów porównawczych, co tylko dolewa oliwy do ognia.
W tle widać strategię: Anthropic pozycjonuje się jako bardziej etyczna alternatywa dla xAI czy OpenAI, które pędzą przed siebie bez oglądania się na koszty.
Zdolności modelu a realne zagrożenia
Mythos ma błyszczeć w wykrywaniu i wykorzystywaniu podatności – czyli namierzaniu i atakowaniu słabych punktów kodu. Anthropic ostrzega, że taki model w rękach cyberprzestępców mógłby sparaliżować systemy krytyczne. Brzmi groźnie, ale czy na pewno?
Brak publicznych testów porównawczych to pierwsza czerwona flaga. Bez twardych danych trudno ocenić, czy Mythos naprawdę bije na głowę Claude 3.5 Sonnet czy GPT-4o. Eksperci z branży sugerują, że wiele modeli już radzi sobie z podstawowymi testami penetracyjnymi, ale nie jest to poziom zwiastujący apokalipsę.
Z drugiej strony, jeśli model jest choć w połowie tak dobry, jak twierdzą twórcy, pokazuje to, jak blisko jesteśmy systemów AI zdolnych do autonomicznych ataków. Ironia? Firmy takie jak Anthropic same trenują te „bestie” na danych z internetu pełnego gotowych skryptów do ataków.
Sceptycyzm ekspertów i gra wizerunkowa
Nie wszyscy kupują narrację Anthropic. Niektórzy badacze AI kwestionują skalę ryzyka, sugerując, że to bardziej chwyt marketingowy niż autentyczna troska. W końcu Dario Amodei, dyrektor generalny Anthropic, lubi podkreślać podejście oparte na bezpieczeństwie, co wyróżnia firmę na tle konkurencji.
Aisha Down z Guardiana w podcaście analizuje, czy blokada Mythos to próba wygrania „wojny o rozgłos” w świecie AI. Firma zyskuje uwagę mediów bez ryzyka, że rywale skopiują ich rozwiązanie – sprytne, prawda?
Krytycy wskazują, że podobne zagrywki stosowano przy Claude 3 Opus: obietnice bez pełnego udostępnienia. To buduje zainteresowanie, ale frustruje społeczność otwartego oprogramowania.
Implikacje dla regulacji AI
Decyzja o wstrzymaniu Mythos może być katalizatorem zmian. Podcast Guardiana stawia pytanie, czy taki model wreszcie zmusi rządy do wprowadzenia realnych regulacji. W USA i UE trwają debaty o systemie licencyjnym dla najbardziej zaawansowanych modeli.
Brak regulacji branżowych to pięta achillesowa AI. Anthropic lobbuje za nimi, co pasuje do ich wizerunku. Można jednak odnieść wrażenie, że firmy same tworzą problemy, a potem proszą o nadzór.
Jeśli Mythos okaże się przełomem, presja na ustawodawców wzrośnie. Na razie to przypomnienie, że bezpieczeństwo to nie tylko słowa – choć PR pomaga je dobrze sprzedać.
Źródła:
The Guardian, Anthropic.com, TechCrunch, Ars Technica, Wired