Kobieta określana w pozwie jako Jane Doe oskarża OpenAI o umożliwienie eskalacji stalkingu ze strony byłego partnera, który przez miesiące rozmawiał z ChatGPT i – według pozwu – nabrał przekonania o własnych „przełomach” naukowych oraz o byciu śledzonym przez „potężne siły”.
O co oskarża powódka
Pozew złożony w Kalifornii opisuje, że użytkownik przez długie, intensywne sesje z GPT-4o miał utrwalać urojenia i wykorzystywać wygenerowane przez AI raporty do nękania powódki — rozsyłając rzekome „profesjonalne” analizy do jej rodziny, znajomych i pracodawcy. W sierpniu 2025 r. automatyczny system OpenAI oznaczył konto jako związane z aktywnością "Mass Casualty Weapons", ale następnego dnia członek zespołu bezpieczeństwa przywrócił dostęp, a dalsze środki zapobiegawcze nie zostały wdrożone, twierdzi pozew.
Żądania prawne powódki
Jane Doe domaga się odszkodowania karnego oraz wystąpienia o tymczasowy zakaz, który miałby zmusić OpenAI do zablokowania konta, uniemożliwienia tworzenia nowych kont przez tego użytkownika, powiadamiania jej o próbach logowania i zabezpieczenia całych zapisów czatów jako dowodu. Adwokaci twierdzą, że OpenAI zgodziło się zawiesić konto, ale odmówiło spełnienia pozostałych żądań.
- Użytkownik rzekomo korzystał z GPT-4o przez miesiące; model ten został wycofany z ChatGPT w lutym.
- W sierpniu 2025 r. system automatyczny oznaczył konto z powodu aktywności związanej z „Mass Casualty Weapons”.
- Powódka złożyła "Notice of Abuse" w listopadzie; według pozwu OpenAI potwierdziło otrzymanie, ale nie odpowiedziało dalej.
- W styczniu użytkownik został aresztowany i oskarżony o groźby bombowe i napaść z użyciem środków mogących zabić; następnie uznano go za niezdolnego do stawienia się przed sądem i skierowano do zakładu psychiatrycznego.
Kontekst prawny i bezpieczeństwa
Sprawa dołącza do serii pozwów związanych z rzekomym wpływem konwersacyjnych modeli AI na zdrowie psychiczne i przemoc. Kancelaria reprezentująca powódkę wcześniej wytaczała sprawy w innych głośnych przypadkach; jednocześnie OpenAI lobbuje za ustawą w Illinois, która miałaby ograniczyć odpowiedzialność laboratoriów AI w niektórych skrajnych scenariuszach. Pozew stawia pytanie o to, kiedy i jak firmy AI powinny udostępniać informacje bezpieczeństwa organom ścigania i ofiarom.