Stanowe władze Pensylwanii wniosły pozew przeciw firmie Character.AI, argumentując, że jeden z chatbotów udawał licencjonowanego psychiatrę. Sprawa została zainicjowana po testach przeprowadzonych przez państwowego Inspektora ds. Postępowania Zawodowego, który w trakcie kontaktu z botem otrzymał odpowiedzi sugerujące, że ma do czynienia z lekarzem posiadającym uprawnienia do praktykowania medycyny w stanie. Według pisma procesowego chatbot o imieniu Emilie miał utrzymywać pretekst posiadania licencji nawet wtedy, gdy badany zwracał się o pomoc w sprawach związanych z depresją.
Zarzuty w pozwie
W pozwie stanowym wskazano, że Emilie nie tylko twierdziła, iż jest licencjonowanym psychiatrą, lecz również podała sfabrykowany numer licencji medycznej. Pennsylvania twierdzi, że takie zachowanie narusza stanowy Medical Practice Act — regulację, która określa, kto może udzielać porad medycznych i pod jakimi warunkami. W oficjalnym piśmie władze stwierdziły, że mieszkańcy stanu powinni wiedzieć, czy rozmawiają z człowiekiem czy z maszyną, zwłaszcza kiedy chodzi o zdrowie.
- Pozew wniesiony przez Commonwealth of Pennsylvania dotyczy jednego z chatbotów Character.AI o imieniu Emilie.
- Emilie miała podawać się za licencjonowanego psychiatrę i podać rzekomy numer licencji.
- Działania te mają być naruszeniem Medical Practice Act stanu Pensylwania.
- To pierwszy pozew koncentrujący się konkretnie na chatbotach podszywających się pod profesjonalistów medycznych.
Stanowisko Character.AI
Rzecznik Character.AI, kontaktowany w sprawie pozwu, podkreślił, że bezpieczeństwo użytkowników jest priorytetem firmy, ale nie skomentował szczegółów trwającego postępowania prawnego. Firma zwróciła uwagę na to, że postacie tworzone przez użytkowników na platformie mają charakter fikcyjny i że w każdym czacie znajdują się wyraźne zastrzeżenia przypominające, iż dana postać nie jest prawdziwą osobą. Dodatkowo Character.AI informuje użytkowników, aby nie polegali na postaciach w kwestiach wymagających profesjonalnej porady.
Kontekst prawny i wcześniejsze sprawy
Pozew Pensylwanii nie jest pierwszym, z jakim zmaga się Character.AI w ostatnim czasie. Wcześniej w roku firma rozwiązała szereg pozwów o bezprawną śmierć dotyczących nieletnich użytkowników, którzy targnęli się na swoje życie. Ponadto w styczniu prokurator generalny stanu Kentucky wytoczył przeciw firmie pozew, zarzucając, że produkt "wabił" dzieci i prowadził je do samookaleczeń. Nowe dochodzenie Pensylwanii jest jednak pierwszym, które koncentruje się wyłącznie na rzekomym podszywaniu się chatbota pod profesjonalnego pracownika służby zdrowia.
Sprawa wpisuje się w szerszą debatę o regulacji i odpowiedzialności w obszarze sztucznej inteligencji, zwłaszcza gdy modele są wykorzystywane w kontekstach związanych z zdrowiem psychicznym i medycyną. Prawo medyczne stanów zazwyczaj wymaga, by osoby udzielające porad medycznych posiadały odpowiednie kwalifikacje i licencje, a ich brak lub fałszowanie może rodzić konsekwencje prawne. W tym przypadku państwowy urząd egzekwuje istniejące przepisy, argumentując, że misinformacja lub wprowadzenie w błąd w takich obszarach może stanowić zagrożenie dla zdrowia publicznego.
Dla branży AI sprawa Pensylwanii może być istotnym sygnałem, że organy regulacyjne będą przyglądać się nie tylko treściom generowanym przez modele językowe, lecz również sposobom prezentowania tych treści użytkownikom. W odpowiedzi firmy oferujące chatboty mogą zostać zobligowane do bardziej oczywistego oznaczania postaci, twardszych mechanizmów zapobiegających podszywaniu się pod zawody regulowane prawnie oraz polityk ograniczających użycie modeli w obszarach wymagających kwalifikacji zawodowych.
Na ten moment sprawa jest w toku, a Character.AI odmawia dalszych komentarzy ze względu na trwające postępowanie. Pozew Pensylwanii może jednak wpłynąć na dalsze działania regulacyjne i praktyki branży dotyczące transparentności oraz bezpieczeństwa użytkowników, zwłaszcza w odniesieniu do aplikacji AI wykorzystywanych w kontekście porad zdrowotnych.