Wyobraź sobie, że wpisujesz w Google imię znanego muzyka i nagle dowiadujesz się, że to dożywotni przestępca seksualny. Tak stało się z kanadyjskim skrzypkiem Ashleyem MacIsaakiem, który teraz pozywa Google. Ta historia pokazuje, jak halucynacje modeli językowych mogą zrujnować życie.
Kim jest Ashley MacIsaac i dlaczego ta sprawa jest tak dotkliwa?
Ashley MacIsaac to nie byle kto w kanadyjskiej muzyce. Trzykrotny laureat nagród Juno, skrzypek z Nowej Szkocji, który w latach 90. podbił listy przebojów mieszanką celtyckiego folku i popu. Jego kariera miała wzloty i upadki, ale nigdy nie był karany za przestępstwa seksualne – a tym bardziej za pedofilię czy dożywotnią rejestrację w bazie sprawców.
Gdy AI Overview od Google wyświetliło takie bzdury, MacIsaac poczuł to na własnej skórze. Trzykrotny laureat Juno stracił nie tylko reputację, ale i realne pieniądze. W rozmowie z Canadian Press przyznał, że bał się wychodzić na scenę, obawiając się o swoje bezpieczeństwo. To nie abstrakcja – to konkretny człowiek, którego życie wywróciło się do góry nogami przez algorytm, który brzmi wiarygodnie, ale całkowicie mija się z prawdą.
Ironia? Google pozycjonuje AI Overview jako „pomocne podsumowanie”, a w tym przypadku doszło do ewidentnego zniesławienia. Sprawa pokazuje, że dla artystów, którzy żyją z zaufania publiczności, takie wpadki to nie żarty.
Co dokładnie wygenerowało AI Overview o MacIsaacu?
AI Overview, nowa funkcja Google mająca dostarczać szybkie podsumowania wyszukiwania, całkowicie się zagalopowała. W odpowiedzi na zapytanie o Ashleya MacIsaaca model twierdził, że muzyk został skazany za napaść seksualną na kobietę, wabienie dziecka w internecie w celu wykorzystania oraz pobicie z ciężkimi obrażeniami. Do tego doszła informacja o dożywotnim wpisie do narodowego rejestru przestępców seksualnych.
Żadna z tych informacji nie jest prawdziwa. Fałszywe oskarżenia o pedofilię to nie zwykła pomyłka, lecz ciężka artyleria, która niszczy reputację na lata. Google wie o problemach z halucynacjami, ponieważ wcześniej usuwało podobne błędy, np. rady o klejeniu pizzy taśmą czy jedzeniu kamieni. Jednak w tym przypadku uderzono w człowieka, a nie w absurdalne porady.
Obecnie, po medialnym szumie, wynik wyszukiwania uległ zmianie i wspomina o pozwie. Jednak szkoda została już wyrządzona, a brak przeprosin ze strony Google tylko pogarsza sytuację.
Odwołany koncert – realne straty muzyka
Punkt zwrotny nastąpił 19 grudnia 2025 roku. Sipekne’katik First Nation odwołało koncert MacIsaaca po tym, jak mieszkańcy poskarżyli się na „informacje” znalezione w Google. Ludzie uwierzyli sztucznej inteligencji, ponieważ brzmi ona autorytatywnie – mało kto kwestionuje wyniki giganta z Mountain View.
Władze plemienne później przeprosiły publicznie: „Decyzje oparto na błędnych danych z AI, które powiązało artystę z obcą sprawą. Żałujemy szkód wyrządzonych jego reputacji”. MacIsaac mówi o „namacalnym strachu” przed występami. Koncert odwołany 19 grudnia to nie tylko strata finansowa, ale cios w karierę skrzypka, który walczy o powrót na szczyt.
To pokazuje, jak AI wpływa na decyzje w świecie rzeczywistym. Organizatorzy wydarzeń, fani i media często przyjmują te podsumowania za pewnik, nie weryfikując źródeł.
Szczegóły pozwu: 1,5 mln dolarów i ostre argumenty
Pozew został złożony w Sądzie Najwyższym Ontario. MacIsaac domaga się 500 tys. dolarów odszkodowania ogólnego, 500 tys. za szkody kwalifikowane oraz 500 tys. odszkodowania karnego. Twierdzi, że Google ponosi odpowiedzialność za „przewidywalne powielanie” zniesławiających treści przez AI Overview.
„Google wiedziało lub powinno wiedzieć, że AI jest niedoskonałe i podaje fałszywe informacje”, argumentują prawnicy. Podkreślają, że gdyby takie słowa wypowiedział człowiek, poniósłby dotkliwe konsekwencje finansowe – dlaczego więc oprogramowanie miałoby być chronione? 500 tys. dolarów odszkodowania karnego ma zmusić Google do większej ostrożności.
W kontekście prawnym warto wspomnieć o podobnych sprawach, jak ta dotycząca rejestracji znaków towarowych przez Taylor Swift przeciwko klonom AI czy zakazach w Minnesocie. To wyraźny trend: artyści i systemy prawne coraz częściej występują przeciwko nadużyciom sztucznej inteligencji.
Google milczy, ale koryguje wyniki
Google nie skontaktowało się z MacIsaakiem ani go nie przeprosiło. W grudniu, po pierwszych doniesieniach, rzecznik stwierdził: „AI Overview jest stale udoskonalane, inwestujemy w jakość. Błędy wykorzystujemy do trenowania systemu”. Obecnie wynik wyszukiwania wspomina o pozwie z przełomu 2025 i 2026 roku.
To jednak zdecydowanie za mało. Brak bezpośrednich przeprosin budzi irytację – gigant zachowuje się jak sąsiad, który zarysuje auto i stwierdzi jedynie, że „następnym razem będzie uważał”. MacIsaac poprzez prawników przekazał: „To poważna sprawa dla sądu, nie chcę zakłócać przebiegu procesu”.
Podobne milczenie obserwowaliśmy przy innych kontrowersjach, np. gdy AI Overview udzielało niebezpiecznych porad dotyczących zdrowia publicznego.
Halucynacje AI Overview: szerszy problem Google
To nie jest odosobniony przypadek. AI Overview zadebiutowało w maju 2024 roku i szybko stało się obiektem krytyki za generowanie absurdów: od pizzy z klejem, przez jedzenie kamieni, po wybuchające mikrofalówki. Google usuwało błędy po fakcie, ale skala problemu rośnie – miliony użytkowników ufają tym podsumowaniom.
Eksperci z serwisu Ars Technica pisali o „nadmiernej pewności siebie” modeli językowych. Start usługi w maju 2024 przyniósł setki zgłoszeń o błędach. W kontekście regulacji, jak w przypadku Minnesoty i zakazu generowania nagości, rośnie presja na wprowadzenie odpowiedzialności prawnej.
Dla branży to jasny sygnał: modele takie jak Gemini muszą być weryfikowalne, ponieważ koszty ludzkie ich błędów są zbyt wysokie.
Co to oznacza dla użytkowników i przyszłości wyszukiwania?
Gdy przeciętny użytkownik wpisuje nazwisko i otrzymuje kłamstwo, zaufanie do Google drastycznie spada. To zapowiedź ery, w której podsumowania AI będą pod ścisłą lupą prawników. MacIsaac chce doprowadzić do precedensu: firmy tworzące AI mają odpowiadać za treść tak samo jak wydawcy mediów.
Moja analiza? Google ryzykuje, inwestując miliardy w AI przy jednoczesnym ignorowaniu zagrożeń. Precedens w sprawie zniesławienia przez AI może zmienić zasady gry – od teraz każdy błąd to potencjalny pozew. Rada dla użytkowników: zawsze sprawdzajcie źródła i nie ufajcie bezkrytycznie automatycznym podsumowaniom.
W Polsce podobne ryzyka pojawią się, gdy AI zostanie głębiej zintegrowane z wyszukiwarkami. Czas na zdrowy sceptycyzm wobec „magii sztucznej inteligencji”.
Źródła:
The Guardian, Canadian Press, Ars Technica, The Verge, Wired, TechCrunch